트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2315

 
막심 드미트리예프스키 :
진실은 그들이 이런 식으로 설명한다는 것입니다. durke에서 나폴레옹에게 묻는 것이 더 쉽습니다.

양자 물리학에는 예측이 없으며 불확실성, 음, 확률에 대한 계산이 있습니다.)))

 
발레리 야스트렘스키 :

양자 물리학에는 예측이 없으며 불확실성, 음, 확률에 대한 계산이 있습니다.)))

범위가 영향을 받은 것으로 보이지만 전혀 공개되지 않았습니다. 대신 여자 회사에서 어떤 종류의 죽을 시작했습니다.

 
막심 드미트리예프스키 :

범위가 영향을 받은 것으로 보이지만 전혀 공개되지 않았습니다. 대신 여자 회사에서 어떤 종류의 죽을 시작했습니다.

AI와 AI에 대한 오늘날의 넌센스에서 과학에 빠질 확률은 100분의 1 미만입니다....

동의한다?

 
발레리 야스트렘스키 :

AI와 AI에 대한 오늘날의 넌센스에서 과학에 빠질 확률은 100분의 1 미만입니다....

동의한다?

어떤 과학에 따라)

재교육에서 흥미로운 트릭이 있지만 공개하지 않았으며 아직 읽을 수 있는 다른 곳을 찾지 못했습니다.
 
막심 드미트리예프스키 :

어떤 과학에 따라)

재교육에서 흥미로운 트릭이 있지만 공개하지 않았으며 아직 읽을 수 있는 다른 곳을 찾지 못했습니다.

과학은 사용되는 지식입니다. 과학의 이름에 관계없이) 지식의 중간 결과는 남아 있지 않습니다)))

 
막심 드미트리예프스키 :

불확실성 예측은 흥미로운 것입니다


그들은 거기 에 기사에 대한 링크가 있습니다. 언뜻보기에는 일반 Bayes와 정규 분포가 있습니다.

Uncertainty in Gradient Boosting via Ensembles
  • arxiv.org
For many practical, high-risk applications, it is essential to quantify uncertainty in a model's predictions to avoid costly mistakes. While predictive uncertainty is widely studied for neural networks, the topic seems to be under-explored for models based on gradient boosting. However, gradient boosting often achieves state-of-the-art results on tabular data. This work examines a probabilistic ensemble-based framework for deriving uncertainty estimates in the predictions of gradient boosting classification and regression models. We conducted experiments on a range of synthetic and real datasets and investigated the applicability of ensemble approaches to gradient boosting models that are themselves ensembles of decision trees. Our analysis shows that ensembles of gradient boosting models successfully detect anomaly inputs while having limited ability to improve the predicted total uncertainty. Importantly, we also propose a concept of a \emph{virtual} ensemble to get the...
 
알렉세이 니콜라예프 :

그들은 거기 에 기사에 대한 링크가 있습니다. 언뜻보기에는 일반 Bayes와 정규 분포가 있습니다.

어떤 버튼을 눌러야 분류 결과가 더 좋을지 알 때까지만

회귀의 경우 예시일 뿐입니다.

나는 중요도 샘플링이 기본적으로 최대 그라디언트에 사용된다는 것을 깨달았습니다(새 기능처럼)

아니면 그냥 기본적으로 내장되어 있고 아무 것도 할 필요가 없습니다

그건 그렇고, catboost는 재교육 측면에서 매우 훌륭합니다. 그를 재교육하도록 강요하는 것은 매우 어렵습니다. 데이터 세트가 g ...이면 학습이 제대로 이루어지지 않고 모든 옵션을 기억하지 못합니다.
 

나는 다른 비디오를보고있다


 
발레리 야스트렘스키 :

과학은 사용되는 지식입니다. 과학의 이름에 관계없이) 지식의 중간 결과는 남아 있지 않습니다)))

글쎄요, 지식으로는 모든 것이 괜찮습니다. 응용 분야를 살펴보기만 하면 됩니다.

부스팅 알고리즘 자체는 여전히 매우 훌륭합니다. 스튜디오가 있는 일반 스피커가 더 많았으면
 
막심 드미트리예프스키 :

글쎄요, 지식으로는 모든 것이 괜찮습니다. 응용 분야를 살펴보기만 하면 됩니다.

부스팅 알고리즘 자체는 여전히 매우 훌륭합니다. 스튜디오가 있는 일반 스피커가 더 많았으면

궤변이 전부입니다))) 중간 지식이 없으면 지식이 없을 것입니다) 중간 단계에서 모든 일이 발생할 수 있으며 변화의 시간은 일반적으로 SB))))

사유: