베이지안 회귀 - 이 알고리즘을 사용하여 Expert Advisor를 만든 사람이 있습니까? - 페이지 41

 
Vizard_ :
그래서 천천히 변형이라는 매혹적인 주제에 접근했습니다.))) 정규 분포가 없으면 만들 수 있기 때문입니다.
변형과 ... 둘 다 필요하기 때문에 아프기까지 오랜 시간이 걸리겠지만 나는 Box-Cox를 별로 좋아하지 않습니다)))) 그렇지 않으면 유감입니다
정상적인 예측 변수, 이것은 최종 결과에 거의 영향을 미치지 않을 것입니다 ...

처음에는 "신자들"의 눈에서 희미한 이해를 보고 싶습니다. 그리고 필요한 경우 변환합니다. 두꺼운 꼬리를 변환할 수 있습니까? 그것이 문제입니다. 품질에 큰 영향을 줄 수 있습니다.

 
Alexey Burnakov :

처음에는 "신자들"의 눈에서 희미한 이해를 보고 싶습니다. 그리고 필요한 경우 변환합니다. 두꺼운 꼬리를 변환할 수 있습니까? 그것이 문제입니다. 품질에 큰 영향을 줄 수 있습니다.

FARIMA 메모리에서 뚱뚱한 꼬리에 대한 회귀가 있습니다.

그러나 증분의 크기로 돌아갑니다.

우리는 무엇을 거래합니까? 이전 막대와 관련하여 시간당 7핍 증가? 나는 그것을 상상하기 어렵다. 누군가 깨우칠 수 있습니까?

증분은 더 정확하게는 변동성을 거래할 수 있지만 일부 고정 시리즈와 관련하여 이것을 공적분이라고 합니다.

 
적어도 누군가는 입력 데이터에 대해 진지하게 생각했습니다)
 
СанСаныч Фоменко :

FARIMA 메모리에서 뚱뚱한 꼬리에 대한 회귀가 있습니다.

그러나 증분의 크기로 돌아갑니다.

우리는 무엇을 거래합니까? 이전 막대와 관련하여 시간당 7핍 증가? 나는 그것을 상상하기 어렵다. 누군가 계몽할 수 있습니까?

증분은 더 정확하게는 변동성을 거래할 수 있지만 일부 고정 시리즈와 관련하여 이것을 공적분이라고 합니다.

증분이 아닌 경우 무엇을 거래합니까?
 
Комбинатор :
적어도 누군가는 입력 데이터에 대해 진지하게 생각했습니다)

나는 생각했다. 진지하게 )

첫째, 마음에 떠오르는 모든 종류의 입력을 많이 생성합니다. 그런 다음 특정 대상 변수에 대해 가장 관련성이 높은 변수를 선택하고 나머지는 휴지통에 버립니다. 도움이 될 것 같지만 훈련 방법에 따라 다릅니다.

내가 수행한 실험에서 나는 그렇게 했다. 먼저 시스템이 어떤 정보를 보아야 하는지 파악했습니다. 그러나 이것은 모두 주관적입니다. 그리고 훈련 전 유익한 예측 변수의 선택은 많은 허구 없이 수행되었지만 효과가 있었습니다.

train_set <- dat_train_final[, c(eval(inputs), eval(outputs[targets]))]
        test_set <- dat_test_final[, c(eval(inputs), eval(outputs[targets]))]
        
        input_eval <- gbm(train_set[, 109 ] ~ .
                       , data = train_set[, 1 : 108 ]
                       , distribution = "laplace"
                       , n.trees = 100
                       , interaction.depth = 10
                       , n.minobsinnode = 100
                       , bag.fraction = 0.9
                       , shrinkage = 0.01
                       , verbose = T
                       , n.cores = 4 )
        
        best_inputs <- as.character(summary(input_eval)[[ 1 ]][ 1 : 10 ])
        
        train_set <- dat_train_final[, c(eval(best_inputs), eval(outputs[targets]))]
        test_set <- dat_test_final[, c(eval(best_inputs), eval(outputs[targets]))]

나는 논평할 것이다. 먼저, 사용 가능한 모든 예측 변수를 사용하여 약한 비 재훈련 모델에 대해 훈련했습니다. 모델이 재학습할 시간이 없는 것이 중요합니다. 그런 다음 가장 중요한 상위 10개를 가져왔습니다.

이는 결과를 노이즈로 줄이는 것은 물론 학습 속도를 10배까지 가속화했습니다.

이것은 옵션 중 하나입니다.

 
Alexey Burnakov :
증분이 아닌 경우 무엇을 거래합니까?

롱과 숏이 주목받는 트렌드.

터미널 주문: BUY, SELL.

 
Комбинатор :
적어도 누군가는 입력 데이터에 대해 진지하게 생각했습니다)

분류 모델에 대한 잡음 예측기에서 입력 예측기 세트를 정리하기 위해 유료 서비스를 제공한다고 생각해 보십시오. 남은 것은 과도하게 훈련된 모델을 생성하지 않는 집합입니다. 진실을 명확히 해야 합니다. 남아 있는 것이 있다면. 역설적인 것이 있습니다. 추세 거래의 경우 수많은 종류의 마스코트가 모두 절망적입니다.

내가 처리한 세트 중:

  • 초기 예측 변수 목록을 3배에서 5배로 감소

앞으로 처리해야 할 예측 변수가 20-25개 남았습니다.

  • 각 막대에 있는 이 예측 변수 집합에서 표준 R 도구를 사용하여 일부 하위 집합을 선택합니다.
  • 모델이 학습되는 10-15개의 예측 변수가 남아 있습니다.
  • 마지막 예측 변수를 선택할 수 없으며 대략적인 막대 수 는 창과 같지만 창은 100 이내입니다.

결과: 모델이 재학습되지 않습니다. 훈련 중 분류 오류, GSR 및 out of sample은 거의 동일합니다.

 
젠장, 옥수수 의 자식들은 일종의 정상/비정상이다.
 
두 개의 병렬 분기가 동일한 것을 논의하고 있습니다. 모델에 대한 예측 변수 선택
 
СанСаныч Фоменко :

롱과 숏이 주목받는 트렌드.

터미널 주문: BUY, SELL.

이것은 동일합니다! 증분은 + 또는 - 기호로 변환됩니다. 그리고 당신은 한 시간 앞서 증가하기 위해 그러한 표시를 취할 수 있습니다.

질문이 뭐야?