트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1228

 
막심 드미트리예프스키 :

그런 다음 몇 가지 예가있을 것이며 새로운 데이터에서 그녀는 맹목적인 패자가되지 않을 것이며 그녀는 그녀의 삶에서 가능한 한 많이 "볼" 필요가 있습니다

옵션으로 ....

1) 라벨이 붙은 거래, 거래 + 수수료, 가장 수익성 있는 옵션으로 "완벽한 거래"를 만드십시오... 지그재그와 같은 것을 얻으십시오. 상판과 하판에 거래가 있을 것입니다...

2) 이 완벽한 거래의 형평성 구축

3) 우리는 모델을 훈련시킵니다. 교육의 목표는 모델의 품질이 하나의 디지털, 상관 계수로 표현될 수 있는 (이상적인 지분)과 최대 상관 관계(모델 거래 지분 + 수수료)를 달성하는 것입니다.

따라서 모델은 가능한 한 부드럽고 정확하게 데이터에 적응할 수 있습니다.

물론 OOS에 대해 배울 때 잊지 마세요.

추신. 내가 쓴 모든 것은 순수한 이론입니다.

 
mytarmailS :

옵션으로 ....

1) 라벨이 붙은 거래, 거래 + 수수료, 가장 수익성 있는 옵션으로 "완벽한 거래"를 만드십시오... 지그재그와 같은 것을 얻으십시오. 상판과 하판에 거래가 있을 것입니다...

2) 이 완벽한 거래의 형평성 구축

3) 모델을 훈련시킵니다. 교육의 목표는 모델의 품질이 하나의 디지털, 상관 계수로 표현될 수 있는 (이상적인 지분)과 최대 상관 관계(모델 거래 지분 + 수수료)를 달성하는 것입니다.

따라서 모델은 가능한 한 부드럽고 정확하게 데이터에 적응할 수 있습니다.

물론 OOS에 대해 배울 때 잊지 마세요.

추신. 내가 쓴 모든 것은 순수한 이론입니다.

실제로 이것은 완료되었지만 "이상적인 형평성"의 정도를 변경할 수 있습니다.

기차 오류: 0, oos: 0.4.

OOS(내부)를 고려한 "이상적인" 거래는 손실 거래가 15%에 불과하며 이는 OOS(여기서는 20%)의 크기에 해당합니다. 새로운 데이터에서 어떤 일이 일어날지 쉽게 추측할 수 있습니다.


 
막심 드미트리예프스키 :

실제로 이것은 완료되었지만 "이상적인 형평성"의 정도를 변경할 수 있습니다.

기차 오류: 0, oos: 0.4.

OOS(내부)를 고려한 "이상적인" 거래는 손실 거래가 15%에 불과하며 이는 OOS(여기서는 20%)의 크기에 해당합니다. 새로운 데이터에서 어떤 일이 일어날지 쉽게 추측할 수 있습니다.


그렇다면 문제는 아마도 예측 변수의 속성의 가변성에 있을 것입니다. 다른 옵션이 표시되지 않습니다(

 
mytarmailS :

그렇다면 문제는 아마도 예측 변수의 속성의 가변성에 있을 것입니다. 다른 옵션이 표시되지 않습니다(

목표에 대한 변동성

이것은 "이상적인" 입력을 가르치는 것이 특히 모든 출력에 동일한 확률을 할당하는 비뚤어진 접근 방식이라는 것을 보여주고 싶었습니다.

 
막심 드미트리예프스키 :

목표에 대한 변동성

이것은 "이상적인" 입력을 가르치는 것이 특히 모든 출력에 동일한 확률을 할당하는 비뚤어진 접근 방식이라는 것을 보여주고 싶었습니다.

oos의 시작은 아무것도 아닌 것 같습니다 ...

바보같이 n소절마다 완전히 재훈련시키려 하지 않았어

 
mytarmailS :

oos의 시작은 아무것도 아닌 것 같습니다 ...

바보같이 n소절마다 완전히 재훈련시키려 하지 않았어

이것은 단지 예일 뿐이며, 그 차이를 매끄럽게 만드는 방법이 있지만 그다지 효과적이지는 않지만

시작이 아닌 시작을 찾는 이유))) 앞뒤가 거의 동일한 곳에 이미 스크린샷을 던졌습니다.

앞서 설명한 주제를 연구하는 데 관심이 있습니다. 하지만 아무도 하지 않았기 때문에 내가 직접 할 것입니다.

 
막심 드미트리예프스키 :

이것은 단지 예일 뿐이며, 그 차이를 매끄럽게 만드는 방법이 있지만 그다지 효과적이지는 않지만

시작이 아닌 시작을 찾는 이유))) 앞뒤가 거의 동일한 곳에 이미 스크린샷을 던졌습니다.

내가 앞에서 설명한 주제를 연구하는 데 관심이 있습니다. 하지만 아무도 하지 않았기 때문에 내가 직접 할 것입니다.

그것은 승/패의 확률과 같을 것이고, 그들은 무언가를 배울 수 있지만 새로운 데이터에서는 무작위에 가까울 것입니다.

 
mytarmailS :

그것은 승/패의 확률과 같을 것이고, 그들은 무언가를 배울 수 있지만 새로운 데이터에서는 무작위에 가까울 것입니다.

봐 이 과정을 머릿속으로 상상할 수 없어

 
막심 드미트리예프스키 :

봐 이 과정을 머릿속으로 상상할 수 없어

하지만 지속적인 재교육으로 여전히 시도하십시오. 더 유망한 IMHO입니다.

 
mytarmailS :

하지만 지속적인 재교육으로 여전히 시도하십시오. 더 유망한 IMHO입니다.

내가 시도하지 않은 것 같아? 가상 옵티마이저는 오랫동안 완전한 재교육, 베이지안 조정의 2가지 버전으로 제공되었습니다.

당신이 그것을 할 때까지 당신은 이해하지 못할 것입니다. 주요 문제가 해결된 경우에만 작동합니다.

모든 종류의 매트를 확인했기 때문입니다. 기능, 거의 모든 곳에서 하늘의 형평성

신경망 x...ti, 조기 정지, 늦은 정지, 버그 x...i, 앙상블 x.., 교차 검증
사유: