트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3092

 
mytarmailS #:

이익과 손실이 있잖아요?

그래서 포지션이 오픈되어 있을 때 해당 주에서 리턴을 받습니다.

네.

내 메일 #:

다른 TS 설정 대신 다른 섹션에서 거래를하면 동일하게 사용할 수 있다고 생각합니다.

잘 모르겠어요

그리고 일반적으로. 당신이하고있는 일을 이해하기 위해 기사를 읽으면 제한이 있습니다. 예를 들어, -1000000에서 +1000000이 아닌 분명히 성공적인 설정을 제공해야합니다. 모든 것을 연속으로 제공하면 평균 OOS가 바닥에 있고 비교할 필요가 없습니다. 0,95...,0,98의 매우 좁은 범위는 DR 측면에서도 나쁘며 결과는 매우 가깝습니다.

 
Forester #:

yes

잘 모르겠습니다.

그리고 일반적으로. 기사를 읽고 수행중인 작업을 이해하면 제한 사항이 있습니다. 예를 들어, -1000000에서 +1000000이 아닌 분명히 성공적인 설정을 제공해야합니다. 모든 것을 연속으로 제공하면 평균 OOS가 바닥에 있고 비교할 필요가 없습니다. 0.95...,0.98의 매우 좁은 범위도 나쁘다 - 결과는 매우 가깝습니다.

나는 당신이 아무것도 아닌 수익성있는 TS를 제출해야한다는 것을 이해합니다....


나는 이미이 것을 테스트하기위한 알고리즘을 설명했지만 메트릭에는 단 하나의 뉘앙스가 있습니다.


4 + 1 메트릭을 모두 최적화해야 하나요?

 p_bo      slope       ar^2     p_loss 
 0.1666667  2.1796000 -0.2100000  0.1670000 
+

прибыль


아니면

 p_bp  + прибыль


 
하지만 교육 없이 어떻게 교차 검증을 하는지 이해할 수 없습니다. 그들은 준비된 반환 세트를 제공 한 다음 12,000 개의 변형에 혼합합니다. 12000개의 IS 각각에 대해 훈련하고 각각의 해당 OOS에 대해 예측해야 합니다.
 
mytarmailS #:

수익성 있는 TC를 제출해야 한다는 것을 알고 있습니다.


이 테스트 알고리즘을 이미 설명했지만 메트릭에는 한 가지 뉘앙스가 있습니다.


4 + 1 메트릭을 모두 최적화해야 합니다.


또는


모르겠어요. 그 중 하나겠죠.
 
Forester #:
하지만 교육 없이 어떻게 교차 검증을 하는지 이해할 수 없습니다. 그들은 준비된 반환 세트를 제공 한 다음 12,000 개의 변형에 혼합합니다. 12000개의 IS 각각에 대해 훈련하고 각각의 해당 OOS에 대해 예측해야 합니다.

이것이 학습되는 방식입니다.

이제 패키지를 살펴볼 차례입니다.

 
mytarmailS #:

그렇게 가르칩니다.

포리스트/NS 하이퍼파라미터는 어디에 있나요? 없으므로 학습하지 않습니다.
외부 모델 예측의 안정성을 평가하는 것일 뿐입니다.
 
Forester #:
포리스트/NS 하이퍼파라미터는 어디에 있나요? 아니요 - 훈련이 아닙니다.
외부 모델 예측의 안정성을 평가하는 것일 뿐입니다.

제가 알기로는 선형 회귀를 통해 안정성을 추정하는 것으로 알고 있습니다.

논문에서 포레스트/NS에 대한 내용이 있나요?
 

나는 경쟁에 대해 조금 이해하지 못합니다. 교수 레다, 교수 레다가 아니라 과제가 있고 과제의 정확성에 대한 토론이 더 관련이 있으며 정확하다면 왜 안 되나요?

나는 홀리 바의 모든 참가자의 의견을 존중하지만 다른 의견이 있습니다))))))

외부 또는 기타 매개 변수가 없으면 모든 것이 매우 복잡하거나 오히려 영구 운동 기계에 가깝습니다))))) 그러나 외부 매개 변수를 사용하면 동일한 큰 문제가 있습니다)

평균으로 돌아가는 것이 가장 이해하기 쉽고 영원한 것이 가장 쉽고 작은 TF 오류가 적지 만 세이버 틱은 또한 검은 백조를 제공합니다))))).

 
mytarmailS #:

내가 이해하는 선형 회귀를 통해 안정성을 추정합니다.

기사에서 숲/NS에 대한 내용이 있나요?

아니면 간단한 건가요? 딸랑이처럼요?

첫 번째 파일은 크고 두 번째 파일은 더 작을 수 있지만 첫 번째 파일에 비해 최신 날짜가 있는 두 개의 파일을 가져옵니다.

무작위 샘플링을 통해 첫 번째 파일을 훈련, 테스트, 검증의 세 부분으로 70/15/15 비율로 나눕니다.

훈련에서는 교차 검증(예: 5배)을 통해 학습합니다. 1배가 최소 1500바이면 훈련 = 7500바가 됩니다. 원에서는 두 개의 소스 파일에 대해 15000개의 막대로 충분합니다.

학습된 모델을 테스트, 유효성 검사에서 실행하고 각각에 대한 분류 오류를 얻습니다 .

그런 다음 두 번째 파일에 대해 1500개의 막대 창을 실행합니다. 분류 오류를 수집합니다.

얻은 모든 분류 오차가 5% 채널 내에 있으면 모든 것이 정상이며, 얻은 분류 오차를 신뢰할 수 있고 재학습할 필요가 없습니다.

 
СанСаныч Фоменко #:

간단하게 정리해보는 건 어떨까요?

두고 보죠.


먼저 알고리즘을 실행하고 테스트해보고, 작동하지 않으면 버리고 잊어버리세요... 99%.

작동하면 기사를 자세히 살펴보고 방법을 자세히 살펴보고 개선 / 변경 / 대체를 시도 할 수 있습니다 .

사유: