If the target type is not binary, then every object with target value and weight is replaced with two objects for the metric calculation: Target values must be in the range [0; 1]. If the target type is not binary...
def test_models(result):
pr_tst = get_prices(FULL_DATE, STOP_DATE)
X = pr_tst[pr_tst.columns[1:]]
X.columns = [''] * len(X.columns)
#test the learned model
p = 0for i in range(len(result)):
p += result[i][2].predict_proba(X)
p = p/len(result)
p2 = [x[0]<0.5for x in p]
pr2 = pr_tst.iloc[:len(p2)].copy()
pr2['labels'] = p2
R2 = tester(pr2, MARKUP, plot=True)
test_models(res)
哪些?
F1,MCC 似乎更好。
以下是完整列表
https://catboost.ai/docs/concepts/loss-functions-classification.html
F1、MCC 似乎更好
以下是完整列表
https://catboost.ai/docs/concepts/loss-functions-classification.html
再来一次
嗯,是的,有时候是有道理的。
多放点赌注是的,叠加是有道理的。至于多少还是个未知数
文章写得很好,工作也很出色!
在数据集方向改变后,在将标签输入混合物模型之前,先将标签去掉。
通过观察,更多模型给出了积极的结果。
在测试仪和终端中的最佳测试结果:
总的来说,这是一个漂亮的作品。我用它测试了我所有的目标,然后把它们扔进了垃圾桶。)
这篇文章写得很好,是一项艰巨的工作!
在将数据集输入混合物模型之前,先将数据集方向改变后的标签去掉。
从观察结果来看,更多模型的结果是正面的。
测试仪和终端的最佳测试结果:
总的来说,工作非常出色。在它的帮助下,我检查了我所有的目标,并把它们扔进了垃圾桶。)
是的,您可以在聚类前丢弃
感谢您的反馈)
Z.Ы 这样您就可以一次性测试所有模型,平均。播放。所有模型的解析器还没有制作完成,仍有疑问。但有时几个模型的组合确实会有所改善。
ZYZY. 你可以用相同的指标 R2 来枚举不同的训练模型组合,作为主题的发展。然后保留最好的组合。如果有很多模型,甚至可以通过遗传学来实现。我获取了欧元兑美元从 2015 年到 2020 年的 H1 数据,并将其分为三组:
我仔细检查了我的代码,但我可能做错了什么。总之,您可能会对结果有所了解。谨致问候,Rasoul
我采集了欧元兑美元 2015 年至 2020 年的 H1 数据,并将其分成三组:
我仔细检查了我的代码,但我可能做错了什么。总之,您可能会对结果有所了解。谨致问候,Rasoul
您能告诉我如何通过 csv 文件上传数据吗?
我试过这种方式,但无法加载。
文件格式是
时间,收盘价
2020,11,15,1.3587
2020,11,16,1.3472
您能告诉我如何通过 csv 文件上传数据吗?
pr = pd.read_csv('pr.csv', sep=';')也就是说,这是一个从终端加载数据并保存到文件的示例。然后您可以将其用于 colab
你好,拉苏尔。试着减少训练集的大小。这取决于不同的设置,但关键诀窍在于,训练集越小,对新数据的泛化效果就越好。在下一篇文章中,我会尝试解释这种效果。
这很好。如果能在文章中说明本论文的适用范围,特别是适用于不同的 IO 方法,那就更好了。出于某种原因,他们建议 NS 采用 70/30 的比例。从逻辑上讲,在我看来,50/50 应该能得到更稳定的结果。
这很好。如果能在文章中说明本论文的适用范围,特别是适用于不同的 MO 方法,那就更好了。出于某种原因,建议对 NS 采用 70/30 的比例。从逻辑上讲,我认为 50/50 应该能得到更稳定的结果。
有主动学习和被动学习之分。被动学习包括手动标注 数据并对其进行训练,在这种情况下,应该有大量数据,但存在正确标注的问题。也就是说,"教师 "必须对数据进行标注,使其按照惯例来自相同的分布,并具有良好的概括性。在这方面,受训者和测试者的比例几乎没有区别。它几乎什么也不会给你带来,它只是一个模型检查,检查你手工标注数据的效果如何。
在主动学习中,模型会学习以最佳方式标注数据。这篇文章就是这样一个通过 GMM 进行分区的案例。也就是说,既使用了有教师的学习,也使用了无教师的学习。在这种情况下,模型学会在小分区数据上学习,并必须以最优方式自行对剩余数据进行分区。这是一种相对较新的方法(大约从 2017 年开始)。我想在后续文章中更详细地介绍它。
句子中的 "数据 "太多,我为同义反复道歉 )