文章 "随机数生成器质量对优化算法效率的影响" - 页 15 1...89101112131415 新评论 Maxim Dmitrievsky 2024.04.09 11:06 #141 既然是狗在摇尾巴(优化的经验主义),而不是相反,我们就可以考虑针对有条件静止过程的任何优化算法。 在这种情况下,我们可以使用寻找全局和局部最小值的术语。 但不能用于优化未知数和拟合抽象的最小值或最大值。 但即使在这种情况下,AO 也会出现过度训练(预拟合)的倾向,这时就需要使用验证技术来确定学习理论中 某些参数的稳健性。 Andrey Dik 2024.04.09 11:07 #142 С Yuriy Bykov #: 不幸的是,我们现在更不清楚我们在说什么了。 fxsaber#: 晦涩难懂的语言+论坛形式 = 误解的可能性很高。希望参与关于寻找稳健解决方案问题的建设性讨论的人可以给我私信。我们将邀请与会者进行私聊。而参与那些并不意味着建设性对话的对话,并不在我目前的任务清单上。 Maxim Dmitrievsky 2024.04.09 11:17 #143 如果把这些都写下来,我们就不用用最大值和高原以及其他在过程静止之外毫无意义的废话来给人们洗脑了。 Maxim Dmitrievsky 2024.04.09 11:42 #144 即使在满足条件的情况下,蛮力蒙特卡洛也能像所有算法一样正常工作。也就是说,只需随机选择 n 次参数值并验证即可。 1...89101112131415 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
既然是狗在摇尾巴(优化的经验主义),而不是相反,我们就可以考虑针对有条件静止过程的任何优化算法。
在这种情况下,我们可以使用寻找全局和局部最小值的术语。
但不能用于优化未知数和拟合抽象的最小值或最大值。
但即使在这种情况下,AO 也会出现过度训练(预拟合)的倾向,这时就需要使用验证技术来确定学习理论中 某些参数的稳健性。
不幸的是,我们现在更不清楚我们在说什么了。
晦涩难懂的语言+论坛形式 = 误解的可能性很高。
希望参与关于寻找稳健解决方案问题的建设性讨论的人可以给我私信。我们将邀请与会者进行私聊。
而参与那些并不意味着建设性对话的对话,并不在我目前的任务清单上。