文章 "基于暴力算法的 CatBoost 模型高级重采样与选择" - 页 7

 
Maxim Dmitrievsky

在该笔记本中,只有以下代码块出现错误


pr = get_prices(look_back=LOOK_BACK)

pr = add_labels(pr, 10, 25)

rep = tester(pr, MARKUP)

plt.plot(rep)

plt.show()


ValueError:无法设置没有定义索引的帧,且值无法转换为序列

原因可能是什么?

 
Evgeni Gavrilovi:

在该笔记本中,只有这个代码块出现错误


pr = get_prices(look_back=LOOK_BACK)

pr = add_labels(pr, 10, 25)

rep = tester(pr, MARKUP)

plt.plot(rep)

plt.show()


ValueError:无法设置没有定义索引的帧,且值无法转换为序列

原因可能是什么?

数据帧为空

检查是否收到引号

 
elibrarius:
你试试看不会太久的在实验中测试一下不是很有趣吗?布莱曼在他的随机森林里没做过

太慢了我晚点再试

 
Maxim Dmitrievsky:

太慢了。我稍后再试。

结果会很有趣的我觉得我们可以把考试分成两半 一半是测验 一半是考试或者再加几年
 
Maxim Dmitrievsky:

数据帧为空

检查是否收到报价

没错,我没有注意到经纪商在欧元货币对EURUSDm 的末尾有一个 "m"。

 
elibrarius:
看看结果会很有趣。我认为我们可以把考试分成两半,一半是测验,一半是考试。或者再加几年

我以前做过类似的事,一杯木头。其实也没起多大作用

我怀疑这次也一样但我稍后会检查一下。

 
Maxim Dmitrievsky:

我以前也做过类似的事情,一杯木头。事实上,它并没有带来任何美妙的东西。

我怀疑这次也一样。但我稍后会检查一下。

我同意,在森林里,最初的平均结果是最好的。但检查一下也无妨)

 
Valeriy Yastremskiy:

我同意,在森林里最初平均效果最好 。但检查一下也无妨)

不,是全部。

之所以叫随机森林,是因为所有随机树都是相加的。
最好的结果不叫随机森林,而叫最佳森林。)))

 
elibrarius:

不,是全部。

之所以叫随机森林,是因为所有的随机树加在一起。
最好的就叫最好的森林,而不是随机森林。)))

显然,我们对随机提升的理解不同。果断树,是从随机集合中选择特征。问题的关键在于,集是随机的,但选择/聚类成好的坏的集原本就存在。这就好比扔针、量角和计算 Pi 数)。

来自维基。

  1. 让我们建立一棵决策树,对给定子样本中的样本进行分类,在创建决策树 的下一个节点时,我们将选择一组特征,在此基础上进行分区(不是从所有M 个 特征 中,而是只从 随机 选择的m 特征 中)。从这m 个 特征 中选择最佳 特征 的方法各不相同。最初的 Breiman 代码使用基尼标准,该标准也用于CART 决定树算法。该算法的一些实现方法则使用信息增益标准[3]
 
Valeriy Yastremskiy:

显然,我们对随机比对有不同的理解。果断树,是从随机集合中挑选出的特征。关键在于,集合是随机的,但选择/聚类成好的坏的集合原本就存在。这就好比扔针、量角和计算圆周率)。

来自维基

  1. 让我们建立一棵决策树,对给定子样本中的样本进行分类,在创建决策树 的下一个节点时,我们将选择一组特征,在此基础上进行分区(不是从所有M 个 特征 中,而是只从 随机 选择的m 特征 中)。从这m 个 特征 中选择最佳 特征 的方法各不相同。最初的布雷曼代码使用基尼准则,该准则 也用于CART 决定树算法。该算法的一些实现方法则使用信息增益标准[3]

是的,有很多棵树,但每棵树都在试图对不同的特征进行最佳学习。这与组合多个森林(包括坏森林)不同