For many practical, high-risk applications, it is essential to quantify uncertainty in a model's predictions to avoid costly mistakes. While predictive uncertainty is widely studied for neural networks, the topic seems to be under-explored for models based on gradient boosting. However, gradient boosting often achieves state-of-the-art results on tabular data. This work examines a probabilistic ensemble-based framework for deriving uncertainty estimates in the predictions of gradient boosting classification and regression models. We conducted experiments on a range of synthetic and real datasets and investigated the applicability of ensemble approaches to gradient boosting models that are themselves ensembles of decision trees. Our analysis shows that ensembles of gradient boosting models successfully detect anomaly inputs while having limited ability to improve the predicted total uncertainty. Importantly, we also propose a concept of a \emph{virtual} ensemble to get the...
,真的是这样解释的,在疯人院里问拿破仑更容易。
在量子物理学中,没有预测,有的只是不确定性的计算,或者说是概率的计算))
在量子物理学中,没有预测,只有不确定性的计算,或者说是概率的计算)。
应用的领域似乎已经被触及,但根本没有揭示。而不是从babushkas开始的一些粥。
申请的范围似乎被触及,但根本没有被揭示。取而代之的是,一些咿咿呀呀的糊涂话开始了
在当今关于人工智能的胡言乱语和接近人工智能的科学中,不到百分之一的....
同意吗?
在今天关于人工智能和接近人工智能的废话中,只有不到百分之一的内容会进入科学....。
同意吗?
取决于什么科学)
再培训有一些有趣的技巧,但他们没有透露,而且我还没有找到其他地方可以读到这些技巧。这取决于什么科学 )
在再培训中,有一些有趣的技巧,但他们没有透露,而且我也找不到其他地方可以读到这些技巧。科学是被使用的知识。无论科学的名称是什么))))。
预测不确定性是一件有趣的事情
他们那里有一篇文章的链接--乍一看只是通常的贝叶斯加正态分布。
他们那里有一篇文章的链接--乍一看,它只是看起来像正态贝叶斯加正态分布。
只是还不知道该按哪个按钮来获得更好的分类结果。
对于回归只是一个例子
我明白了,默认使用最大梯度取样(就像一个新功能)。
或者它只是默认的,我不需要做任何事情。
顺便说一下,catbust在再训练方面非常酷......要让它再训练是非常困难的。如果数据集是垃圾......它的学习能力会很差,不记得所有的选项。我现在正在看另一个视频。
科学是被使用的知识。无论科学的名称是什么))))。
有了知识,一切都会好起来的,只是需要关注的是应用领域。
提升算法本身还是非常酷的。如果工作室里有一些好的扬声器就好了。知识是没有错的,你只需要看一下应用的领域。
提升算法本身还是非常酷的。如果工作室里有更多正常的扬声器就好了(例如,如果你是一个商人,你知道一些东西(例如,如果你是一个商人,你知道一些东西)))) 没有知识,就没有知识))在中间阶段,任何事情都可能发生,变革的时代通常像SB))。