Regressão Bayesiana - Alguém já fez um EA usando este algoritmo? - página 41

 
Vizard_:
Foi assim que, lentamente, chegamos ao fascinante tema das transformações)))) porque se não houver uma distribuição normal, você pode fazer uma.
Vai levar muito tempo, porque você precisa tanto de retransformação quanto de... E a Box-Cox não gosta muito)))) É apenas uma pena que se você não tiver
É uma pena que, se você não tiver preditores adequados, isso não terá muito efeito no resultado final...

Primeiro eu gostaria de ver um lampejo de compreensão aos olhos dos "fiéis". E depois, sim, converter, se necessário. Se as caudas grossas podem ser convertidas, essa é a questão. Eles podem fazer uma grande diferença para a qualidade.

 
Alexey Burnakov:

Primeiro eu gostaria de ver um lampejo de compreensão aos olhos dos "fiéis". E depois, sim, converter, se necessário. Se as caudas grossas podem ser convertidas, essa é a questão. Eles podem ter um grande impacto na qualidade.

Há regressões para caudas grossas, a partir da memória FARIMA.

Mas voltando à magnitude do incremento.

O que estamos negociando? Um incremento de 7 pips à 1 hora em relação à barra anterior? Não o entendo muito bem. Alguém pode me iluminar?

O incremento pode ser negociado, mais precisamente, a volatilidade, mas em relação a algumas séries estacionárias - é chamado de cointegração.

 
Eu gostaria que alguém considerasse seriamente as entradas )
 
СанСаныч Фоменко:

Há regressões para caudas grossas, a partir da memória FARIMA.

Mas voltando à magnitude do incremento.

O que estamos negociando? Um incremento de 7 pips no marcador de horas em relação à barra anterior? Não o entendo muito bem. Alguém pode me iluminar?

O incremento pode ser negociado, mais precisamente, a volatilidade, mas em relação a algumas séries estacionárias - é chamado de cointegração.

E o que você comercializa, se não incrementos?
 
Комбинатор:
Eu gostaria que alguém considerasse seriamente os dados de entrada )

Eu pensei. Sério )

Em primeiro lugar, eu gero o máximo de insumos que posso pensar. Depois seleciono os mais relevantes para uma determinada variável-alvo e lixo o resto. Parece ajudar, mas depende do método de treinamento.

No experimento que realizei, fiz o seguinte. Primeiro eu pensei em quais informações o sistema precisaria ver. Mas tudo isso é subjetivo. Também escolhi os preditores informativos antes do treinamento, mas funcionou:

train_set <- dat_train_final[, c(eval(inputs), eval(outputs[targets]))]
        test_set <- dat_test_final[, c(eval(inputs), eval(outputs[targets]))]
        
        input_eval <- gbm(train_set[, 109] ~ .
                       , data = train_set[, 1:108]
                       , distribution = "laplace"
                       , n.trees = 100
                       , interaction.depth = 10
                       , n.minobsinnode = 100
                       , bag.fraction = 0.9
                       , shrinkage = 0.01
                       , verbose = T
                       , n.cores = 4)
        
        best_inputs <- as.character(summary(input_eval)[[1]][1:10])
        
        train_set <- dat_train_final[, c(eval(best_inputs), eval(outputs[targets]))]
        test_set <- dat_test_final[, c(eval(best_inputs), eval(outputs[targets]))]

Vou comentar. Primeiro eu treinei em um modelo fraco, não recondicionado, com todos os preditores disponíveis. É importante que o modelo não tenha tempo para se reciclar. Depois fiquei entre os 10 mais importantes.

Isto não só não reduziu os resultados ao ruído, como também acelerou o treinamento por um fator de 10.

Essa é uma maneira de ver as coisas.

 
Alexey Burnakov:
O que você está negociando senão incrementos?

Tendência na qual o longo e o curto são de interesse.

Pedidos no terminal: COMPRAR, VENDER.

 
Комбинатор:
Eu gostaria que alguém considerasse seriamente os dados de entrada )

Só de pensar nisso, eu até forneço um serviço pago para limpar os conjuntos de preditores de entrada a partir dos preditores de ruído para os modelos de classificação. Isto deixa um conjunto que não gera modelos supertreinados. É verdade, devemos esclarecer: se algo sobrar. Há uma coisa paradoxal: para o comércio de tendências, todas as muitas variedades de mashups são desesperadas.

Entre esses conjuntos que eu processei:

  • Reduzir a lista original de preditores por um fator de 3 a 5.

Isso deixa 20-25 preditores que podem ser tratados no futuro

  • deste conjunto de preditores em cada barra eu escolho alguns subconjuntos por meio de R
  • restam 10-15 preditores, sobre os quais o modelo é treinado
  • é possível não fazer a última seleção dos preditores um número aproximado de barras igual a uma janela, mas a janela está dentro de 100

Resultado: o modelo não é re-treinado, ou seja, o erro de classificação no treinamento, AOB e fora de amostra é aproximadamente igual.

 
Os filhos do milho da normalidade/normalidade são alguns.
 
dois fios paralelos discutindo a mesma coisa - selecionando os preditores para o modelo
 
СанСаныч Фоменко:

Tendência na qual o longo e o curto são de interesse.

Pedidos no terminal: COMPRAR, VENDER.

Isto é o mesmo! Os aumentos se transformam em sinais + ou -. E você pode levar este sinal para os incrementos de uma hora à frente.

Qual é a pergunta?

Razão: