트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3124

 
Renat Akhtyamov #:

wha

시와 책을 쓰기 위해

시작하세요.

그게 당신의 일이고 아마도 더 수익성이 높을 것입니다.

그렇게 멍청하면 유튜브에 나가면 되죠.
 
Maxim Dmitrievsky #:
모델이 편향되어 있습니다. 따라서 이러한 편향 없이 학습하도록 강제해야 합니다. 하지만 먼저 편향 계수를 찾아야 하는데, 회귀에서처럼 기울기 또는 자유 항(절편)이라고 가정해 봅시다. 이 용어가 훈련과 OOS에 따라 달라지지 않도록 훈련시키면 어떨까요? 기본적으로 코줄루에 관한 책을 인용합니다.

catbusta 및 기타 모델에서는 훈련 중에 레이블에 가중치를 할당할 수 있습니다. 예를 들어 오프셋을 출력한 다음 가중치로 변환하고 이미 훈련에 있는 보정 계수를 사용하여 모델을 훈련합니다. 이것이 방법 중 하나입니다.

3개월 동안 글로브 추세가 상승하고 있다고 가정해 보겠습니다. 가격이 7% 상승했습니다. 동시에 하루 동안 양방향으로 최대 2%의 변화가 있습니다.
첫 번째 바, 두 번째 바의 리 토너먼트 H1에 어떤 가중치를 부여해야합니까? ..... 100 바? 그리고 나머지 피치. 과학적으로 (또는 적어도 실험적으로) 정당한 공식이 있는지 의심 스럽습니다.
수백 개의 가중치를 부여하면 적합한 모델을 찾는 것이 훨씬 더 어려워집니다. 이미 많은 하이퍼파라미터가 있습니다.

 
Forester #:

3개월 동안 전 세계적으로 상승 추세가 있었다고 가정해 보겠습니다. 가격이 7% 상승했습니다. 동시에 하루에 양방향으로 최대 2%의 변동이 있습니다.
첫 번째 막대, 두 번째 막대의 H1 수익률에 어떤 가중치를 부여해야 할까요? .... 100 바? 그리고 나머지 피치. 과학적으로 (또는 적어도 실험적으로) 정당한 공식이 있는지 의심스럽습니다.
수백 개의 가중치를 부여하면 적합한 모델을 찾는 것이 훨씬 더 어려워집니다. 이미 수많은 하이퍼파라미터가 존재합니다.

원인과 결과에 대한 명확한 확신이 없을 때는 무작위 실험을 통해서만 가능합니다. 신뢰도가 높지는 않지만 다른 방법이 없습니다.

과학적으로 유효한 프리쉬-우-로벨 공식이 있습니다. 그 책을 읽어보지 않으셨나 보네요.

물론 이 수준에서 반등했다가 저 곡선 아래로 떨어지고 뉴스에서 모든 것이 다시 떨어졌다는 측면에서 계속할 수 있지만 아무도 그러한 공식의 유용성을 증명하지 못했습니다. 우리가 무작위성을 가지고 놀면 맛을 가지고 놀아야합니다.
 
Maxim Dmitrievsky #:
원인과 결과를 명확히 알 수 없는 경우,

몇몇 틱은 이미 가격의 미래 방향을 예측합니다.

물론 시간별 또는 일별 막대에는 표시되지 않습니다.

여기 한 가지 제안이 있습니다.

원칙적으로는 하지 않는 것이 좋습니다.

 
Uladzimir Izerski #:

그리고 원칙적으로 그렇게 해서는 안 됩니다.

+
 
Forester #:
매도 모델은 글로벌(1~1.5년) 추세가 상승할 때 하락하기 시작합니다. 거래에서 수익을 올릴 기회를 찾지만 OOS에서는 손실이 발생합니다.
아마도 하나의 모델이 매수|매도를 선택하는 첫 번째 변형이 더 좋을 것입니다. 그러나 글로벌 추세에 적응하면 추세 변화의 순간에 고갈 될 것입니다. 그리고 아마도 몇 년 동안 한 방향으로만 거래할 것입니다.

모델 과잉 훈련의 주요 징후는 TRAIN과 OOS의 차이입니다. 그러한 불일치가 있으면 모든 것을 버려야하고 모든 것이 비어 있고 전체 여행이 거짓입니다.

 
СанСаныч Фоменко #:

모델 오버 트레이닝의 주요 징후는 기차와 OOS의 발산입니다. 그러한 불일치가 있으면 모든 것을 버려야하고 모든 것이 비어 있고 전체 하이킹이 거짓입니다.

오래된 정보.

마하라 노비스로 무엇을하는지 더 잘 말하면, 우리는 회전 할 것입니다.
 
Maxim Dmitrievsky #:

오래된 정보입니다.

마하라노비스로 무엇을하고 있는지 알려주세요.

오래된 정보 (모델 재교육의 주요 징후는훈련과 OOS에 대한 차이입니다).

물론 구식입니다. 나는 적용한다면 당신이하는 모든 일이 신화적인 균형에 대한 모든 p 제곱을 버려야 할 것이라고 생각합니다.


마할라노비스로 무엇을 하는지 더 자세히 알려주시면 한 번 시도해 보겠습니다.

안 해요.

R에서 fastmatrix::Mahalanobis(x, center, cov, inverted = FALSE) 패키지는 벡터 사이의 유클리드 거리를 계산합니다.

이것이 왜 필요할까요?

예측자의 예측력, 즉 다양한 클래스를 예측할 수 있는 능력이 필요하며, 미래에는 예측력의 변동이 최소 10% 이내로 최소화되도록 해야 합니다. 그래서 저는 다른 접근 방식을 사용하고 계산 결과를 한 번 게시했습니다.

 
СанСаныч Фоменко #:

오래된 정보 (모델 재교육의 주요 징후는훈련과 OOS의 불일치입니다).

물론 구식입니다. 적용하면 신화적인 균형에 대한 모든 p 제곱을 버려야한다고 생각합니다.


마할라노비스로 무엇을 하고 계신지 알려주시면 한 번 시도해 보겠습니다.

아니요.

R 패키지에서 fastmatrix::Mahalanobis(x, center, cov, inverted = FALSE)는 벡터 사이의 유클리드 거리를 계산합니다.

이것이 왜 필요할까요?

예측자의 예측력, 즉 다양한 클래스를 예측할 수 있는 능력이 필요하며, 미래에는 예측력의 변동이 최소 10% 이내로 최소화되도록 해야 합니다. 그래서 저는 다른 접근 방식을 사용하고 계산 결과를 한 번 게시했습니다.

그리고 왜 우리는 당신의 미지수가 필요한가요, 그것에 대해 글을 쓰는 이유는 무엇입니까?
 
Maxim Dmitrievsky #:
마할라노비스

마하라노비스에 대해 질문하셨고, 저는 답변만 한 것이 아니라 사용하지 않는 이유도 적었습니다.

사유: