В статье будут рассмотрены особенности выбора, предподготовки и оценки входных переменных для использования в моделях машинного обучения. Будут рассмотрены множественные методы нормализации и их особенности. Будут указаны важные моменты этого процесса, сильно влияющие на конечный результат обучения моделей. Рассмотрим и оценим новые и...
请查看弗拉基米尔的早期文章(第 2 或第 3 篇),其中一个 R 软件包借助脚手架确定了这一结果。计算时间很长(比主 NS 的训练时间长很多倍),是完全过拟合还是某种遗传学原理--您应该查看软件包文档。
很可能是以某种方式进行了优化。
感谢您提供的信息。不过,在这 篇文章中,我们讨论的是预测因子的独立评估,而我们感兴趣的是分组方法。
感谢您提供的信息。不过,这 篇文章是关于预测因子的独立估算,而我们感兴趣的是分组法。
这里是关于输入变量的交互作用https://www.mql5.com/zh/articles/2029
是的,谢谢,但这里说的是群体交互作用:
Wrapper.包装方法使用添加和/或移除预测因子的程序估算各种模型,以找到优化模型性能的最佳组合。从本质上讲,封装方法是一种搜索算法,它将预测因子视为输入,并将模型效率作为待优化的输出。枚举预测因子的方法有很多(递归删除/添加、遗传算法、模拟退火等)。
这两种方法各有利弊。筛选法的计算效率往往高于包装法,但选择标准与模型性能没有直接关系。封装方法的一个缺点是,估计多个模型(可能需要调整超参数)会导致计算时间急剧增加,通常会导致模型过度拟合。
在本文中,我们将不考虑包装 方法,而是考虑过滤方法的新方法和新途径,我认为这些方法可以消除上述缺点。
在本文中,我们将不考虑包装方法,而是考虑过滤方法的新方法和新途径,在我看来,这些方法消除了上述缺点。
如果你把这些论文看作是神经网络和 R 语言的教科书,那么里面没有一个鲁棒系统。许多方法也可能被曲解或扭曲,最好还是阅读原始资料。我已经对一位大学教授关于不要相信森林重要性的 材料打了折扣:https://explained.ai/rf-importance/index.html。
同时,在绝大多数情况下,去相关性(decorrelation)和排列组合(permutation)是可靠而充分 的。
也许这不是我的问题,但我不忍心看着你受苦:)
把这些论文当作神经网络和 R 的教科书就好了,里面没有一个强大的系统。许多方法也可能被曲解或扭曲,最好还是阅读原始资料。我已经抛出了关于不要相信杂质对 脚手架的重要性的 材料:https://explained.ai/rf-importance/index.html。
也许这不是我的问题,但我不忍心看你受苦:)
这就是问题所在,没有人知道它是如何正确的--有人在模型上做了一件事,而另一个人又做了另一件事,也可能这一切都是随机的,在这种情况下,每个人都在试图带来科学的证据和理由。
我自己也在处理这个问题,到目前为止,我还没有想到任何类似于完整列举预测组和评估其模型的方法来加快进程。对我来说,困难可能在于如何保留大型组的联系,以便随后将其拆分成更小的组,从而加快枚举速度--这个问题没有得到很好的自动处理。
1 次深入研究和内化的时间,因为对于任何 MO 方法(而不仅仅是射频方法)来说,置换都是通用的,而且计算成本相当低廉
只需 1 个小时的时间就能掌握并学会,因为置换对于任何 MO 方法都是通用的,不仅适用于射频方法,而且计算成本相当低廉
当然,通常的置换是这样的,但这里有所不同--我们将预测因子分为 9 组,通过某种方法确定平均模型结果较差或相反较好的组,然后用不同的划分方法创建新的组,例如,我们将较差的组打造成子组,以便找到剔除的渣滓,或了解其为何如此强烈地影响整体情况,如此循环往复。这样,我们就能根据预测因子之间的相互作用,找出最佳/最差的预测因子组。我们的任务是在模型分类后,根据获得的经验自动重新分组,并再次进行训练。关键是,分类不是随机的。
当然,还有一种常见的置换方法,但这里有所不同--我们将预测因子分成 9 组,通过某种方法确定平均模型结果较差或相反较好的组,然后创建不同划分的新组,例如,我们将不好的组打成子组,以便找到要丢弃的渣滓,或了解为什么它对整体情况影响如此之大,如此循环往复。这样,我们就能根据预测因子之间的相互作用,找出最好/最差的预测因子组。我们的任务是在模型分类后,根据获得的经验自动重新分组,并再次进行训练。关键是,分类不是随机的。
我在上面已经写过,相互之间没有互动。重新排列位置和改变进口 数量都不会改变。您可以检查一下。此外,权重越小意味着对模型的贡献越小,因此在使用模型时甚至没有必要删除坏的权重,但最好能去除不必要的噪音。
我在上面已经写过了,它们之间没有相互影响。重新排列和更改进口数量不会改变。您可以检查一下。此外,减少权重仅仅意味着减少对模型的贡献,因此在使用模型时甚至不需要删除坏的权重,但最好能去除不必要的噪音。
我有不同的结论。
我有不同的结论。
如你所愿)
但这只是小事一桩。重要性 取决于样本的方差(几乎总是如此,非常简单的模型除外)。森林不对样本进行任何转换,也不相互乘除等,而只是将它们的值分散到各个节点上,因此没有相互作用,只有分离