트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3363

 
mytarmailS #:

기본적으로 정상 거래, 아주 좋은 거래, 그냥 좋은 거래 세 가지가 있습니다.

간단한 줄 알았어요.

값이 일정합니까 아니면 동적입니까?

이 질문에 답변했습니다.

 
fxsaber #:

간단한 줄 알았습니다.

그 질문에 답했습니다.


평균을 예로 들어 보겠습니다. 평균에는 기간이라는 매개 변수가 있습니다.

이 매개 변수는 상수일 수도 있고 공식에 따라 변경될 수도 있습니다.

매개 변수를 상수로 사용한다고 알고 있는데요?

 
mytarmailS #:

평균을 예로 들어 보겠습니다. 평균에는 기간이라는 매개 변수가 있습니다.

이 매개 변수는 상수일 수도 있고 다음 공식에 따라 변경할 수도 있습니다......

매개 변수를 상수로 사용한다고 알고 있는데요?

그 용어에 익숙하지 않습니다. MT5-테스터에 최적화된 5가지 파라미터입니다.

 
fxsaber #:

그렇게 설명할 수 있습니다. 물론 구체적으로 말할 수 있는 것은 없습니다. 저는 조정이라고 생각합니다. 왼쪽으로 "드리프트"의 시작이 샘플 시작 지점과 매우 일치하기 때문입니다. 이러한 상황에서는 물론 OOS를 이런 식으로 설명할 수 있습니다.


이것도 EURUSD입니다. 오른쪽의 OOS는 2023년의 마지막 4개월입니다. OOS는 2023년의 나머지 기간입니다.

다른 설명이 필요하신가요? 차트에서 구체적으로 알 수 없습니다.

울프 포워드를 통해 정확한 과잉 최적화 가능성을 계산할 수 있습니다. 한 달 동안 선물환에서 수익으로 몇 번이나 과도하게 최적화되었는지, 손실로 몇 번이나 과도하게 최적화되었는지 계산할 수 있습니다. 이를 통해 재정적인 자신감과 허세를 얻을 수 있습니다.
 
Maxim Dmitrievsky #:
울프 포워드를 통해 정확한 초과 최적화의 가능성을 계산할 수 있습니다. 한 달 동안 선물환에서 수익이 발생하여 과도하게 최적화한 횟수와 손실이 발생하여 과도하게 최적화한 횟수입니다. 이를 통해 재정적 자신감과 허세를 얻을 수 있습니다.

아마도 이러한 방법은 샘플에서 시장이 바뀌었고 따라서 오른쪽의 좋은 OOS가 우연이 아니라는 가설을 확인 / 반박하는 데 효과적 일 것입니다. 고마워요, 생각해 보겠습니다.

 
mytarmailS #:


평균을 예로 들어 보겠습니다. 평균에는 기간이라는 매개 변수가 있습니다.

이 매개 변수는 상수일 수도 있고 다음 공식에 따라 변경할 수도 있습니다......

매개 변수를 상수로 사용한다고 알고 있는데요?

상수는 최적화 후에는 변경되지 않습니다.
 
fxsaber #:

이 용어에 익숙하지 않습니다. MT5-테스터에서 5개의 최적화된 파라미터.

파라미터와 최적화된 파라미터를 계산하는 공식을 검색하는 것이 좋을 것 같습니다. 최적화 결과를 기반으로 합니다. 물론 복잡합니다.
 
Valeriy Yastremskiy #:
최적화된 매개변수를 계산할 수 있는 매개변수와 공식을 찾는 것이 좋을 수도 있습니다. 최적화 결과를 기반으로 합니다. 물론 복잡합니다.
+
제가 하려던 말이 바로 그거였는데, 이해해 주셨으면 했어요.
사람들은 자신의 추측만 중요하게 생각하거든요.
 
fxsaber #:

아마도 이러한 방법은 샘플에서 시장이 바뀌었고 따라서 오른쪽의 좋은 OOS가 우연이 아니라는 가설을 확인 / 반박하는 데 효과적 일 것입니다. 감사합니다, 생각해 보겠습니다.

예, 샘플 창을 뒤로 이동하면 다항식 회귀에서 창을 이동하면 예측이 미친 듯이 점프하는 것처럼 모든 OOS 곡선이 변경됩니다. 옵트 파라미터나 다항식의 차수가 클수록 이 피스는 더 흔들립니다. 이상적으로는 마우스로 창을 움직여 바로 확인할 수 있을 정도로 빠른 최적화가 이루어져야 합니다. 가장 좋은 간격으로 그런 작업을 수행했다고 생각합니다.

지난 기사에서 저는 MO의 훈련을 더 안정적으로 만드는 방법에 대한 변형을 제안했습니다. 즉, 재훈련을 줄이는 것입니다. 하지만 수익률은 떨어집니다.

TS 파라미터를 늘리면 새로운 데이터에서 드리프트가 발생하고, 줄이면 예측의 편차가 커지는 편향-편차 트레이드오프가 바로 이것입니다. 로컬 옵티마이저는 이를 이해할 수 없습니다.
 
Maxim Dmitrievsky #:
예, 샘플 창을 뒤로 이동하면 다항식 회귀에서 창을 이동하면 예측이 미친 듯이 점프하는 것처럼 모든 OOS 곡선이 변경됩니다. 옵트 파라미터나 다항식의 차수가 클수록 이 문제는 더 심해집니다. 이상적으로는 마우스로 창을 움직여 바로 확인할 수 있을 정도로 빠른 최적화가 이루어져야 합니다. 가장 좋은 간격으로 그런 작업을 수행한 것 같습니다.

지난 글에서 저는 MO의 훈련을 더 안정적으로 만드는 방법에 대한 변형을 제안했습니다. 즉, 재훈련을 줄이는 것입니다. 하지만 수익성은 떨어집니다.

TS의 파라미터를 늘리면 새로운 데이터에서 드리프트가 발생하고, 줄이면 예측의 분산이 커지는 편향-편차 트레이드오프가 발생하기 때문입니다. 로컬 옵티마이저는 이를 이해할 수 없습니다.

모든 것이 훨씬 더 간단합니다.

그들은 비고정적 랜덤 프로세스의 일부 섹션에 무언가를 끼워 맞추면서, 비고정적 프로세스의 어떤 섹션이 비고정적 프로세스의 다른 섹션과 아무런 관련이 없다는 사실을 깨닫지 못합니다. 따라서 다른 부분의 결과는 임의적이어서 좋을 수도 있고 나쁠 수도 있지만 실제로는 샌드위치가 항상 버터에 떨어집니다.

그런데 "분산"의 개념은 고정된 무작위 프로세스를 의미합니다.

사유: