交易中的机器学习:理论、模型、实践和算法交易 - 页 3385 1...337833793380338133823383338433853386338733883389339033913392...3399 新评论 mytarmailS 2024.01.19 21:24 #33841 Maxim Dmitrievsky #: 你不是想写一篇关于规则的文章吗?这也许是个有趣的话题,比最小化测试功能更有趣。还是你对 OOS 的验证有问题?或者没有问题,只是懒得写。 我不知道,没什么好写的。我会写如何将木质模型分解成规则,那又怎样?事实上,我的帖子已经说明了一切。还是你指的是我以前的帖子?如果是这样的话,在拆分过程中,我没有发现超强的愈合能力,但有一些优点是不能给模型带来任何影响的。1.可以大大降低模型的维度。2. 可以知道每条规则的统计数据(这一点非常重要)。例如,我们有一个包含 100 条规则的木质模型,但我们永远不知道每条规则在 100 条规则中是起作用一次(没有模式),还是 10 条规则起作用 50 次(有模式)。如果我们不打破这个模型,我们就不会知道,两个模型对我们来说都是一样的。 Maxim Dmitrievsky 2024.01.20 07:50 #33842 mytarmailS #: 我不知道,我真的没什么可写的。我会写如何将木制模型分解成规则,那又怎样?基本上,我的帖子已经向你展示了一切。还是你指的是我以前的帖子?如果是这样的话,在拆分过程中,我没有发现超级愈合特性,但有一些优点是不能给模型带来任何影响的。1.可以大大降低模型的维度。2. 可以知道每条规则的统计数据(这一点非常重要)。例如,我们有一个包含 100 条规则的木质模型,但我们永远不知道每条规则在 100 条规则中是起作用一次(没有模式),还是 10 条规则起作用 50 次(有模式)。如果我们不打破这个模型,我们就不会知道,两个模型对我们来说都是一样的。 在树状模型中,你通常可以计算出每个特征的每个观测值对模型的影响和贡献,例如通过 shap 值。如果我们只留下有用的特征,并只对它们进行训练,就能得到近似规则搜索的结果。顺便说一句,神经元也可以做到这一点。很难理解什么时候只有规则才是唯一有用的。也许是为了结果的可解释性。虽然形状值也能提供很好的可解释性,算是吧。 mytarmailS 2024.01.20 13:27 #33843 Maxim Dmitrievsky #: 在树状结构中,你通常可以计算出每个观测值对每个性状的影响,例如,通过 shap 值计算出它对模型的贡献。如果只留下有用的观测值,并只对它们进行训练,就能得到近似规则搜索的结果。顺便说一句,神经元也可以做到这一点。很难理解什么时候只有规则才是唯一有用的。也许是为了结果的可解释性。虽然形状值也能提供很好的可解释性。 每个特征的影响、每个观察结果的影响和每个规则的影响都是不同的 Maxim Dmitrievsky 2024.01.20 17:58 #33844 mytarmailS #: 每个特征的影响、每个观测值的影响和每个规则的影响都是不同的 规则是连接特征和标签的模型元素。唯一的问题是,神经网络没有不连续性,但可以人为地制造不连续性。我想说的是,我不认为规则有什么意义(意味深长地抽着烟斗)。 mytarmailS 2024.01.20 21:01 #33845 Maxim Dmitrievsky #: 规则是模型中连接属性和标签的元素。唯一的问题是,神经网络没有不连续性,但可以人为地制造不连续性。 。 我想说的是,我不认为规则有什么意义。 我从哈巴罗夫斯克的角度试试看...... 任何模型都是一定模式的总和,夸张地说,一个模式可以被称为一个 TS。 假设一个模型由 100 个 TC 组成。 可能在模式 #1 中,100 个 TS 做了一笔交易。 也可能在模式 #2 中,一个 TS 做了 100 笔交易,而其他 99 个 TS 没有做任何交易。 如何 计算每个 TS 的统计数据 ? 如果是规则模型,则简单明了。 如果是神经模型? Maxim Dmitrievsky 2024.01.21 05:29 #33846 mytarmailS #:我从哈巴罗夫斯克附近试试。如果模型是神经元? /\!!你和桑尼奇不是在同一个工作室工作吗?你选择的例子都是NS能很好预测的。你只用它们来训练另一个 NS。根据自己的喜好重复几次。几轮之后,你就能找到 "规则 "最好的 NS。也很容易,我不会说不可理解。 mytarmailS 2024.01.21 07:56 #33847 Maxim Dmitrievsky #:选择 NS 预测良好的示例。只对它们训练另一个 NS。根据自己的喜好重复几次。几轮之后,你就会得到 "规则 "最好的 NS。 你怎么知道这个子样本中只有一个模式、两个还是二十个?你真的不知道区别吗? Maxim Dmitrievsky 2024.01.21 08:02 #33848 mytarmailS #: 好吧,我们得到了一个神经元预测良好的子样本。 你怎么知道在这个子样本中是一种模式,两种还是二十种?你真的不知道区别吗? 通过剩下的例子数量有多少样本就有多少模式这是一个近似规则,我不是说它和严格规则一样。但你可以进一步划分样本,直到每种模式都划分完整。 mytarmailS 2024.01.21 08:04 #33849 Maxim Dmitrievsky #: 根据剩下的例子数量。有多少个示例,就有多少种模式。 可能有 200 个例子,但只有 5 种模式。一个例子不是一种模式,一个例子就是一个观察结果。 Maxim Dmitrievsky 2024.01.21 08:31 #33850 mytarmailS #: 可以有 200 个例子,但只有 5 种模式。一个例子不是一个模式,一个例子就是一个观察结果。 如果误差已经停止下降或等于零,则可以通过某种接近度:)将剩余的示例划分为模式。例如聚类。然后计算还剩下多少个。甚至为每个模式/聚类写一个平均条件(取聚类的中心点),你就会得到一个输出规则。 1...337833793380338133823383338433853386338733883389339033913392...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
你不是想写一篇关于规则的文章吗?这也许是个有趣的话题,比最小化测试功能更有趣。还是你对 OOS 的验证有问题?或者没有问题,只是懒得写。
我不知道,我真的没什么可写的。
在树状结构中,你通常可以计算出每个观测值对每个性状的影响,例如,通过 shap 值计算出它对模型的贡献。如果只留下有用的观测值,并只对它们进行训练,就能得到近似规则搜索的结果。顺便说一句,神经元也可以做到这一点。
每个特征的影响、每个观测值的影响和每个规则的影响都是不同的
规则是模型中连接属性和标签的元素。唯一的问题是,神经网络没有不连续性,但可以人为地制造不连续性。 。
我从哈巴罗夫斯克的角度试试看......
任何模型都是一定模式的总和,夸张地说,一个模式可以被称为一个 TS。
假设一个模型由 100 个 TC 组成。
可能在模式 #1 中,100 个 TS 做了一笔交易。
也可能在模式 #2 中,一个 TS 做了 100 笔交易,而其他 99 个 TS 没有做任何交易。
如何 计算每个 TS 的统计数据 ?
如果是规则模型,则简单明了。
如果是神经模型?
我从哈巴罗夫斯克附近试试。
如果模型是神经元?
好吧,我们得到了一个神经元预测良好的子样本。 你怎么知道在这个子样本中是一种模式,两种还是二十种?你真的不知道区别吗?
根据剩下的例子数量。有多少个示例,就有多少种模式。
可以有 200 个例子,但只有 5 种模式。