트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2793

 
СанСаныч Фоменко #:

첫 번째 근사치로는 확실히 맞습니다. 모델을 추정하여 성과 측정을 한다는 의미라면 최종 추정치가 있어야 합니다.

하지만 모든 것보다 더 중요한 뉘앙스가 하나 있습니다.

성능을 통해 모델을 평가하는 것은 과거 데이터에 대한 평가입니다. 하지만 모델이 앞으로 어떻게 작동할까요?

밸브 포워드 테스트를 평가해 보세요.

 
elibrarius #:

테스트를 통해 앞으로 걷기를 평가합니다.

전체 무리에 대한 평가입니다. 그리고 형편없는 양들은 하나씩 도태됩니다.

 
СанСаныч Фоменко #:

전체 무리에 대한 평가입니다. 그리고 형편없는 양은 한 마리씩 도태됩니다.

50개의 특징 = 한 번에 하나의 특징을 제거한 50개의 걷기 먹이 찾기 테스트. 길지만 결과는 모델에 의해 얻어집니다.
 

500개의 막대를 추정하는 것은 전혀 통계가 아니며, 큰 수의 법칙에 따라 무엇이든 맞출 수 있습니다.

 
elibrarius #:
50픽 = 50개의 발킹 포바드 테스트에서 한 번에 하나씩 픽을 제거합니다. 길지만 결과는 모델에서 얻을 수 있습니다.

이렇게하면 기능이 완전히 독립된 경우에만 결과를 얻을 수 있으며 그런 식으로 발생하지 않습니다.

 
Maxim Dmitrievsky #:

500개의 막대를 추정하는 것은 전혀 통계가 아니며, 큰 수의 법칙에 따라 무엇이든 맞출 수 있습니다.

예측 능력을 평가하는 것으로 충분합니다. 슬라이딩 윈도우 기술을 사용하여 교사의 예측 오차를 최대 20 %까지 제공하는 피시를 선택할 수 있습니다.

 
СанСаныч Фоменко #:

이 방법은 완전한 기능 독립성이 있는 경우에만 결과를 얻을 수 있으며, 그런 식으로 작동하지 않습니다.

동일한 데이터를 패키지에 입력합니다. 당신도 아무것도 얻을 수 없나요?
 
elibrarius #:
동일한 데이터를 패킷에 입력합니다. 아무것도 얻을 수 없나요?

전처리 단계에서 상관관계가 있는 칩을 제거합니다. 상관관계가 75% (!) 를 넘지 않으면 170개 중 약 50개가 남습니다. 상관관계가 50%를 넘지 않으면 몇 개가 남습니다. 하지만 상관관계가 없는 칩을 수집하는 것을 목표로 설정하지는 않았습니다.

 
СанСаныч Фоменко #:

전처리 단계에서는 상관관계가 있는 특징을 제거합니다. 상관관계가 75% (!) 를 넘지 않으면 170개 중 약 50개가 남습니다. 상관관계가 50%를 넘지 않으면 몇 개가 남습니다. 하지만 상관관계가 없는 피처를 수집하는 것을 목표로 설정하지는 않았습니다.

이 50개는 모델에서 확인할 수 있습니다.
 
elibrarius #:
이 50개는 모델로 확인할 수 있는 것들입니다.

따라서 서로 연관성이 있습니다! 결과는 기능이 폐기되는 순서에 따라 달라집니다.