SOM: 烹饪方法 - 页 8 12345678 新评论 TheXpert 2011.05.11 15:54 #71 Sych: 我可以看到完整的报告(标题)吗?底部的部分已经被砍掉了。 我更新了它。 alexeymosc: 这很好。战略是什么?交易是按条数(按时间)还是其他方式完成的? 现在每个信号都被单独处理。即当一个偏斜的神经元脱落时打开,在一定时间后关闭。 Alexey Burnakov 2011.05.11 16:08 #72 明白了。偏斜的意思可能是概率偏差为50%?而关闭条件是与每个神经元相联系的?什么是歪曲的?55%?60%? TheXpert 2011.05.11 16:25 #73 alexeymosc: 明白了,偏斜一定是指概率偏差为50%?而关闭条件是与每个神经元相联系的?什么是歪曲的?55%?60%? 是的,大约是1.5倍,大约是60/40 -- 这里有一段代码。 { if (positive/(negative + 1.0) > 1.5 && count > 3) { OpenBuy(Magic, TP, SL, TradeLot); } if (negative/(positive + 1.0) > 1.5 && count > 3) { OpenSell(Magic, TP, SL, TradeLot); } } 发现一个小错误...很快就会恢复正常。 Alexey Burnakov 2011.05.11 16:28 #74 很好! [Supprimé] 2011.05.11 16:49 #75 TheXpert: 已更新。 有乐观情绪,但不多。 你可以改善这些数字。 平均值盈利的交易121.33亏损的交易-130.51 最大数量连赢17 (1227.10)连续损失(亏损)11 (-2390.10) ? 即--要么减少相对于盈利交易的平均损失,要么减少连续损失的数量。 我明白这是OOS,但你所教的是它的行为方式。 也许纠正发现的错误会改善结果,这将是有趣的事情。 TheXpert 2011.05.13 14:01 #76 伙计们,需要关于SOM的专家建议。 特别感兴趣的是如何控制图案数量在各群组之间的分布。 Alexey Burnakov 2011.05.21 12:40 #77 下午好! 我已经有一个星期没有正常上网了。我写得很晚。 我在这里读到:http://www.eicstes.org/EICSTES_PDF/PAPERS/The%20Self-Organizing%20Map%20(Kohonen).pdf 输入向量在CCS单元上的最佳分布问题,首先取决于对CCS的充分训练。Kohonen写道,训练迭代的次数必须至少是网络中神经元数量的500倍也就是说,如果我们训练一个由100个神经元组成的网络(10乘10),迭代次数必须至少为50 000次。坦率地说,在一台普通的PC上训练这样一个网络,只要输入矢量非常大(比如40),就需要几天时间。Kohonen建议的启发式方法是,至少应该有10,000次的迭代训练。这太多了,IMHO,但作为一种选择,我们可以减少输入向量的大小,看看会发生什么。 第二点,与SCS学习有关,来自同一篇文章,输入向量的大小并不影响学习迭代的数量,也就是说,一切取决于PC的功率。 第三,正如文章中所建议的那样,神经元训练的半径最初应该非常大(你可以做到超过ACS直径的一半),以便在ACS上设置基本的 "拓扑秩序";然后半径与迭代次数成反比缩小,直到0,也就是发生仅一个神经元的权重校正。同时,在训练开始时建立的原始拓扑秩序并没有被违反,但在地图的局部区域,它被细化。看到这里。 还有一点与学习有关的是,学习的步长在开始时也应该很大(大约1),然后与迭代次数成反比减少,步长对迭代次数的依赖函数可能是线性和非线性的。在训练结束时,步长仍然非常小,小于0.01,以微调LCS。 文章还谈到了训练的预处理数据,但在应用于语音和图像识别时。在我们的案例中,它是一个时间序列,所以我们必须从其他地方挖掘。我知道有很多关于将SOM应用于时间序列的讨论。 BBC 2011.11.14 17:02 #78 你凭什么认为SOM在自动交易中是可能的? 为了使你的视野集中在某一事物上,你需要知道它是什么。 在历史数据上(这是你想让网络学习的东西),有几乎无限多的可能的价格运动。网络应该如何为自己找出该做什么和该注意什么? 想象一下,一个孩子身边有无数的玩具。尽管有无数的玩具,(或者说,这就是原因)孩子永远不会知道这个玩具是汽车,那个是泰迪熊。作为家长,你应该首先告诉/告诉你的孩子,这个玩具叫做汽车,并多次让你的孩子尝试在其他玩具中找到这个特定的玩具。这样孩子就能识别汽车,而不会将其与泰迪熊混淆。 只有当网络知道它的目标是什么时,SOM才能被触发,只有这样它才能集中视野。这可能是通过识别车辆牌照号码或通过自动翻译器搜索正确的单词/短语。然而,你首先要教网络识别数字或文字,然后才让它自由地游泳。 在历史数据流上,你想/能为网络提供什么?那你指望的是什么呢? 12345678 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我可以看到完整的报告(标题)吗?底部的部分已经被砍掉了。
我更新了它。
这很好。战略是什么?交易是按条数(按时间)还是其他方式完成的?
明白了。偏斜的意思可能是概率偏差为50%?而关闭条件是与每个神经元相联系的?什么是歪曲的?55%?60%?
明白了,偏斜一定是指概率偏差为50%?而关闭条件是与每个神经元相联系的?什么是歪曲的?55%?60%?
是的,大约是1.5倍,大约是60/40 -- 这里有一段代码。
发现一个小错误...很快就会恢复正常。
已更新。
有乐观情绪,但不多。
你可以改善这些数字。
?
即--要么减少相对于盈利交易的平均损失,要么减少连续损失的数量。
我明白这是OOS,但你所教的是它的行为方式。
也许纠正发现的错误会改善结果,这将是有趣的事情。
伙计们,需要关于SOM的专家建议。
特别感兴趣的是如何控制图案数量在各群组之间的分布。
下午好!
我已经有一个星期没有正常上网了。我写得很晚。
我在这里读到:http://www.eicstes.org/EICSTES_PDF/PAPERS/The%20Self-Organizing%20Map%20(Kohonen).pdf
输入向量在CCS单元上的最佳分布问题,首先取决于对CCS的充分训练。Kohonen写道,训练迭代的次数必须至少是网络中神经元数量的500倍也就是说,如果我们训练一个由100个神经元组成的网络(10乘10),迭代次数必须至少为50 000次。坦率地说,在一台普通的PC上训练这样一个网络,只要输入矢量非常大(比如40),就需要几天时间。Kohonen建议的启发式方法是,至少应该有10,000次的迭代训练。这太多了,IMHO,但作为一种选择,我们可以减少输入向量的大小,看看会发生什么。
第二点,与SCS学习有关,来自同一篇文章,输入向量的大小并不影响学习迭代的数量,也就是说,一切取决于PC的功率。
第三,正如文章中所建议的那样,神经元训练的半径最初应该非常大(你可以做到超过ACS直径的一半),以便在ACS上设置基本的 "拓扑秩序";然后半径与迭代次数成反比缩小,直到0,也就是发生仅一个神经元的权重校正。同时,在训练开始时建立的原始拓扑秩序并没有被违反,但在地图的局部区域,它被细化。看到这里。
还有一点与学习有关的是,学习的步长在开始时也应该很大(大约1),然后与迭代次数成反比减少,步长对迭代次数的依赖函数可能是线性和非线性的。在训练结束时,步长仍然非常小,小于0.01,以微调LCS。
文章还谈到了训练的预处理数据,但在应用于语音和图像识别时。在我们的案例中,它是一个时间序列,所以我们必须从其他地方挖掘。我知道有很多关于将SOM应用于时间序列的讨论。
你凭什么认为SOM在自动交易中是可能的?
为了使你的视野集中在某一事物上,你需要知道它是什么。
在历史数据上(这是你想让网络学习的东西),有几乎无限多的可能的价格运动。网络应该如何为自己找出该做什么和该注意什么?
想象一下,一个孩子身边有无数的玩具。尽管有无数的玩具,(或者说,这就是原因)孩子永远不会知道这个玩具是汽车,那个是泰迪熊。作为家长,你应该首先告诉/告诉你的孩子,这个玩具叫做汽车,并多次让你的孩子尝试在其他玩具中找到这个特定的玩具。这样孩子就能识别汽车,而不会将其与泰迪熊混淆。
只有当网络知道它的目标是什么时,SOM才能被触发,只有这样它才能集中视野。这可能是通过识别车辆牌照号码或通过自动翻译器搜索正确的单词/短语。然而,你首先要教网络识别数字或文字,然后才让它自由地游泳。
在历史数据流上,你想/能为网络提供什么?那你指望的是什么呢?