트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 851

 
도서관 :

2개 수업
코어 1개 로드됨

rfeControl = rfeControl(number = 1,repeats = 1) 설정 - 시간을 10-15분으로 줄였습니다. 결과 변경 - 2쌍의 예측 변수가 위치를 변경했지만 일반적으로 기본적으로 원래대로 보입니다.

글쎄요, 여기 한 코어에서 10분이 제 2 x 4이고 2분이 기억나지 않습니다.

나는 몇 시간 동안 무언가를 기다리지 않습니다. 10-15 분이 작동하지 않으면 문제가 발생하고 더 많은 시간을 보내더라도 아무런 이점이 없습니다. 몇 시간 동안 지속되는 모델을 구축할 때의 최적화는 모델이 최소한으로 거칠고 어떤 경우에도 최대한 정확해야 한다고 말하는 모델링 이데올로기에 대한 완전한 오해입니다.

이제 예측 변수의 선택에 대해 설명합니다.

왜 했고 왜 그랬어요? 어떤 문제를 해결하려고 합니까?

선택에서 가장 중요한 것은 과적합 문제를 해결하려는 시도입니다. 모델이 재교육되었습니까? 그렇지 않은 경우 선택은 더 적은 수의 예측 변수를 희생시키면서 학습 속도를 높일 수 있습니다. 그러나 주요 구성 요소를 분리하여 양을 줄이는 것이 훨씬 더 효율적입니다. 그것들은 아무 영향도 미치지 않지만 예측 변수의 수를 10배 정도 줄일 수 있으므로 모델 피팅 속도를 높일 수 있습니다.


시작하려면 왜 필요합니까?

 
박사 상인 :

예측 변수를 필터링하기 위한 또 다른 흥미로운 패키지를 찾았습니다. FSelector라고 합니다. 엔트로피 사용을 포함하여 예측 변수를 제거하기 위한 약 12가지 방법을 제공합니다.

예측자와 대상이 포함된 파일은 여기에서 가져왔습니다 - https://www.mql5.com/ru/forum/86386/page6#comment_2534058


마지막으로 각 방법에 따른 예측변수의 추정치를 그래프로 보여주었어요~


파란색은 좋음, 빨간색은 나쁨(정확한 평가를 위해 결과가 [-1:1]로 조정되었습니다. 정확한 평가를 위해 함수 자체를 호출한 결과를 참조하십시오. cfs(targetFormula, trainTable), chi.squared(targetFormula, trainTable ), 등.)
X3, X4, X5, X19, X20은 거의 모든 방법으로 잘 평가되고 있음을 알 수 있습니다. 처음에는 해당 방법을 사용한 다음 더 추가/제거를 시도할 수 있습니다.

그러나 래틀 모델은 Rat_DF2에 대한 5개의 예측 변수로 테스트를 통과하지 못했고 다시 기적이 일어나지 않았습니다. 저것들. 나머지 예측 변수가 있더라도 모델 매개변수를 선택하고 교차 검증을 수행하고 예측 변수를 직접 추가/제거해야 합니다.

Vladimir 기사의 데이터에 대해 CORElearn에서도 동일한 작업을 수행했습니다.

열의 평균(하단 행 Average)을 계산하고 이를 기준으로 정렬합니다. 이렇게 하면 전반적인 중요성을 더 쉽게 인식할 수 있습니다.


1.6분을 계산했으며 37개의 알고리즘이 이를 해결했습니다. 속도는 Caret(16분)보다 훨씬 우수하며 비슷한 결과를 보입니다.

 
도서관 :

Vladimir 기사의 데이터에 대해 CORElearn에서도 동일한 작업을 수행했습니다.

열의 평균(하단 행 Average)을 계산하고 이를 기준으로 정렬합니다. 이렇게 하면 전반적인 중요성을 더 쉽게 인식할 수 있습니다.


1.6분을 계산했으며 37개의 알고리즘이 이를 해결했습니다.

글쎄, 결과는 무엇입니까? 그들은 예측 변수의 중요성에 대한 질문에 대답했습니다. 그렇지 않으면 이 그림 중 몇 개를 이해하지 못합니다.

저에게는 이제 모델을 만들고 선택할 때 전혀 문제가 없으며 예측 변수를 함께 선택한 다음 10개의 모델을 만든 다음 상호 정보와 가장 잘 맞는 모델을 선택합니다. 그리고 당신은 그것이 어떻게 이루어졌는지 알고 있습니다. 마인드 퍼즐!!! 좋아, 누가 결정 잘했어!!!!!

나는 구리에서 그러한 모델 세트를 얻을 수있었습니다. 그리고 실제로 vporos: 어떤 모델이 작동하고 있으며 그 이유는????????

오히려 그들은 모두 일꾼이지만 그 중 한 명만 득점할 수 있습니다. 그리고 이유를 설명???


 
마이클 마르쿠카이테스 :

글쎄, 결과는 무엇입니까? 그들은 예측 변수의 중요성에 대한 질문에 대답했습니다. 그렇지 않으면 이 그림 중 일부를 이해하지 못합니다.

저에게는 이제 모델을 만들고 선택할 때 전혀 문제가 없으며 예측 변수를 함께 선택한 다음 10개의 모델을 만든 다음 상호 정보와 가장 잘 맞는 모델을 선택합니다. 그리고 당신은 그것이 어떻게 이루어졌는지 알고 있습니다. 마인드 퍼즐!!! 좋아, 누가 결정 잘했어!!!!!

나는 구리에서 그러한 모델 세트를 얻을 수있었습니다. 그리고 실제로 vporos: 어떤 모델이 작동하고 있으며 그 이유는????????

오히려 그들은 모두 일꾼이지만 그 중 한 명만 득점할 수 있습니다. 그리고 이유를 설명???


Vtreat는 예측자를 매우 유사하게 정렬합니다(처음에 중요).
5 1 7 11 4 10 3 9 6 2 12 8

다음은 CORElearn의 평균 정렬입니다.

5 1 7 11 9 4 3 6 10 2 8 12

더 이상 예측자를 선택 하기 위한 패키지로 귀찮게 하지 않을 것이라고 생각합니다.
따라서 Vtreat는 충분합니다. 예측 변수의 상호 작용이 고려되지 않는 한. 아마도 CORElearn에도 있을 것입니다.

 
나는 당신이 시장 역사의 일부에 대한 예측 변수의 중요성을 계속 선택하는 것을 볼 때 눈물을 흘립니다. 무엇 때문에? 이것은 욕설 통계입니다. 행동 양식
 
막심 드미트리예프스키 :
나는 당신이 시장 역사의 일부에 대한 예측 변수의 중요성을 계속 선택하는 것을 볼 때 눈물을 흘립니다. 무엇 때문에? 이것은 욕설 통계입니다. 행동 양식
실제로 NN에 예측변수 2번을 제출하면 오차가 30%에서 거의 50%까지 올라가는 것을 확인했다.
 
도서관 :
실제로 NN에 예측변수 2번을 제출하면 오차가 30%에서 거의 50%까지 올라가는 것을 확인했다.

OOS에서 오류는 어떻게 변경됩니까?

 
막심 드미트리예프스키 :

OOS에서 오류는 어떻게 변경됩니까?

비슷하게. Vladimir의 기사에서와 같이 데이터는 거기에서 가져온 것입니다.
 
도서관 :
비슷하게. Vladimir의 기사에서와 같이 데이터는 거기에서 가져온 것입니다.

다른 OOS에 있다면?

 
도서관 :
실제로 NN에 예측변수 2번을 제출하면 오차가 30%에서 거의 50%까지 올라가는 것을 확인했다.

예측 변수에 침을 뱉고 NN 정규화 시계열 에 적용합니다. NS는 자체적으로 예측 변수를 찾습니다. +1-2개의 레이어가 있으며 여기에 여러분을 위한 예측 변수가 있습니다.