트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2554

 
블라디미르 바스카 코프
여기서 그들은 문제를 해결하기 위해가 아니라 문제를 해결합니다.

나는 같은 것에 대해 이야기하고 있습니다. 그들은 작업을 설정 한 다음 영웅적으로 해결하지 않으려 고 노력합니다.))). 내가 이해하기로는 작업을 설정하는 것이 어려울수록 부정적인 결과에 대한 변명, 느낌표, 동정 및 더 복잡한 프로젝트에 대한 이별의 말)))).

 
Farkhat 구자이로프 # :

나는 같은 것에 대해 이야기하고 있습니다. 그들은 작업을 설정 한 다음 영웅적으로 해결하지 않으려 고 노력합니다.))). 내가 이해하기로는 작업을 설정하는 것이 어려울수록 부정적인 결과에 대한 변명, 느낌표, 동정 및 더 복잡한 프로젝트에 대한 이별의 말)))).

나는 그들이 어떻게 여성을 고문하는지 상상할 수 있습니다.)
 
mytarmailS # :

기억해..

생각이 좀 다르네요..

미래 시세의 분포, 예를 들어 앞으로 50개의 양초를 질적으로 예측할 수 있다면 이 분포에서 수천 개의 행을 Montecarl하고 모델을 훈련할 수 있으므로 모델은 이론상 새로운 50개의 양초에 대해 적절하게 작동합니다.

그러나 클래스가 잘못 예측되면 몬테카를로는 도움이되지 않습니다.

창 크기를 가지고 놀 수 있고 다른 것들로 일반화의 품질을 볼 수 있습니다. 일부 사이클에 들어갈 기회가 있습니다.

 
막심 드미트리예프스키 # :

그러나 클래스가 잘못 예측되면 몬테카를로는 도움이되지 않습니다.

창 크기를 가지고 놀 수 있고 다른 것들로 일반화의 품질을 볼 수 있습니다. 일부 사이클에 들어갈 기회가 있습니다.

그렇다면 왜 클래스가 올바르게 예측하지 않습니까? 따옴표는 분포가 아니라 모델이 예상하는 것과 동일하지 않기 때문입니다. 그리고 올바른 분포에서 따옴표를 생성하면 아마도 좋을 것입니다.
 
막심 드미트리예프스키 # :

"가끔 쓰다"은(는) 무슨 뜻인가요?

자체적으로 입증된 일부 파이프라인이 있거나 그냥 유휴 생각입니다.

이론적으로 노이즈를 별도의 클래스로 분리하는 것은 모델을 개선하지 않습니다 (노이즈는 모델 내부에 남고 어디에도 사라지지 않음)

드리프트에 대해 - 기본, 편향-분산 트레이드오프

때때로 이는 모델에 따라 예측 변수 및 변환이 적용됨을 의미합니다. 그리고 검증된 파이프라인이 있습니다.

이론적으로는 모델을 개선하지 못할 수 있지만 실제로는 결과를 개선합니다. (노이즈는 모델 내부에 남아 어디에서도 사라지지 않습니다) 그리고 그것은 무엇에 관한 것입니까?

드리프트에 대해 - 이것은 기본, 편향-분산 트레이드오프입니다. - 이것은 전혀 그것에 관한 것이 아닙니다. 글을 이해하지 마십시오. 읽고, 배우십시오.

겸손, 겸손...


 
블라디미르 페레르벤코 # :

때때로 이는 모델에 따라 예측 변수 및 변환이 적용됨을 의미합니다. 그리고 검증된 파이프라인이 있습니다.

이론적으로는 모델을 개선하지 못할 수 있지만 실제로는 결과를 개선합니다. (노이즈는 모델 내부에 남아서 어디에도 사라지지 않습니다) 이게 무슨 소리에요?

드리프트에 대해 - 이것은 기본, 편향-분산 트레이드오프입니다 - 이것은 전혀 그것에 관한 것이 아닙니다 . 글을 이해하지 마십시오. 읽고, 배우십시오.

겸손, 겸손...


장사를 하지 않으려고 3급에서 소음을 빼나요? 소음의 출현은 매매에 대한 등급 라벨보다 예측하기 쉽지 않습니다.

이것에 대하여

 

Vladimir는 (아마도) 관련 없는 분포에 속하는 예제를 버려서 비정상성에 맞서려고 하는 것 같습니다.

일정한 분포(예측자와 출력의 공동 분포)를 가정하여 편향과 분산 간의 절충안을 찾습니다.

 
Alexey Nikolaev # :

Vladimir는 (아마도) 관련 없는 분포에 속하는 예제를 버려서 비정상성에 맞서려고 하는 것 같습니다.

일정한 분포(예측자와 출력의 공동 분포)를 가정하여 편향과 분산 간의 절충안을 찾습니다.

이상치를 제거하는 것은 비정상성에 대한 싸움이 아닙니다...

 
Dmytryi Nazarchuk # :

이상치를 제거하는 것은 비정상성에 대한 싸움이 아닙니다...

원산지의 특성에 따라 다릅니다.

 
Alexey Nikolaev # :

Vladimir는 (아마도) 관련 없는 분포에 속하는 예제를 버려서 비정상성에 맞서려고 하는 것 같습니다.

일정한 분포(예측자와 출력의 공동 분포)를 가정하여 편향과 분산 간의 절충안을 찾습니다.

미래에 모델도 작동해야 한다고 가정하면 항상 다양한 종류의 오류(노이즈 포함)가 있을 것이므로 균형을 찾는 것이 작업입니다. 그래서 그것은 기본적으로 같은 것입니다.

사실 저는 이 문제를 다른 방식으로 해결하고 있었기 때문에 주요 질문을 작성하고 있습니다.

사유: