트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1776

 
알렉세이 비아즈미킨 :

이것은 당신이 말했듯이 "기회"가 더해질 수 있기 때문에 그렇게 유지합니다.

그리고 사실입니다... 이 로고들은 다른 나무에서 합산됩니다. 그런 다음 최종 확률이 계산됩니다.
 
알렉세이 비아즈미킨 :

예, 새 항목에 있지만 이제 대상 항목이 동일하지 않다는 것을 깨달았습니다. 오프셋이 있는 실제 ZZ 벡터를 가져왔는데 정확하지 않습니다.

대상을 빼내기 위해서는 스크립트를 스케치해야 합니다.

그래서 거기에 무엇이 있습니까? 어떤 쿠라시를 얻었습니까?

 
막심 드미트리예프스키 :

튜토리얼에서 어디선가 본 적이 있습니다.

Maxim, 지금 클러스터링을 하고 있는 것 같습니다.
여기에서 포리스트는 클러스터링과 유사함을 알 수 있습니다.

https://habr.com/ru/company/ods/blog/324402/

"k-최근접 이웃 알고리즘을 사용한 랜덤 포레스트의 유사성" 섹션.

Открытый курс машинного обучения. Тема 5. Композиции: бэггинг, случайный лес
Открытый курс машинного обучения. Тема 5. Композиции: бэггинг, случайный лес
  • habr.com
Пятую статью курса мы посвятим простым методам композиции: бэггингу и случайному лесу. Вы узнаете, как можно получить распределение среднего по генеральной совокупности, если у нас есть информация только о небольшой ее части; посмотрим, как с помощью композиции алгоритмов уменьшить дисперсию и таким образом улучшить точность модели; разберём...
 
도서관 :


질문이있다?

 
도서관 :

Maxim, 지금 클러스터링을 하고 있는 것 같습니다.
여기에서 포리스트는 클러스터링과 유사함을 알 수 있습니다.

https://habr.com/ru/company/ods/blog/324402/

"k-최근접 이웃 알고리즘을 사용한 랜덤 포레스트의 유사성" 섹션.

글쎄, 내가 그것을하는 방법 .. 시작하고 득점) 숲도 클러스터 될 수 있습니다.

클러스터링은 있는 그대로 - 증분을 3개의 그룹으로 잘 나눕니다. 새로운 데이터에. 범주 기능으로 사용하는 것이 합리적입니다. 나는 이것을하고 싶었습니다.
 
막심 드미트리예프스키 :


질문이있다?

 
승리 형제!!!!! 그들이 이겼다....

이것이 승리다!!!!! 형제!!!! 으아아아아아아아아아아아!!!!! 모두 즐거운 휴일 되세요.

우리가 이 전쟁을 잊는 즉시 또 다른 전쟁이 시작될 것이기 때문입니다. 그녀를 항상 기억합시다! 승리!!!!!!! 삐우삐우 (이게 내가 가상의 TT-shki에서 총을 쏘고 장교의 모습으로 거리를 달리는 방법)

 
보시다시피, 우리는 바리케이드의 같은 편에 있습니다! 모두 즐거운 휴일 보내세요!
 
mytarmails :

그래서 거기에 무엇이 있습니까? 어떤 쿠라시를 얻었습니까?

트리 깊이가 6인 10개의 CatBoost 모델, 100개의 새 트리가 결과를 개선하지 않으면 훈련을 중지하고 100개 증분으로 시드합니다.

Accuracy= 70.72461682377491
Accuracy= 70.86133697920415
Accuracy= 70.77066992876159
Accuracy= 70.64690220910988
Accuracy= 70.78506152406995
Accuracy= 70.88004605310499
Accuracy= 70.69871195221991
Accuracy= 70.59509246599985
Accuracy= 70.58501834928403
Accuracy= 70.71454270705908

2018년 및 2019년 훈련 샘플 80%, 훈련 중지 제어 샘플 20%. 독립 샘플 2020년 1월-5월

다른 파티셔닝 방법으로 샘플을 고문하고 더 많은 모델을 빌드하면 72를 얻을 수 있다고 생각합니다.

분류 잔액


 
알렉세이 비아즈미킨 :

트리 깊이가 6인 10개의 CatBoost 모델, 100개의 새 트리가 결과를 개선하지 않으면 훈련을 중지하고 100개 증분으로 시드합니다.

2018년 및 2019년 훈련 샘플 80%, 훈련 중지 제어 샘플 20%. 독립 샘플 2020년 1월-5월

다른 파티셔닝 방법으로 샘플을 고문하고 더 많은 모델을 빌드하면 72를 얻을 수 있다고 생각합니다.

분류 잔액


음, 체 .. 훌륭하고 믿을 수 있습니다. 또한 거래 자체의 균형과 항목이 있는 차트를 보고 싶습니다.

나는 이것이 10 모델의 앙상블이라는 것을 알고 있습니까? 모델은 어떻게 다른가요?

사유: