交易中的机器学习:理论、模型、实践和算法交易 - 页 3325 1...331833193320332133223323332433253326332733283329333033313332...3399 新评论 Aleksey Vyazmikin 2023.10.26 20:59 #33241 mytarmailS #:这是在耍我吗? 什么是嘲弄? 这是视频 mytarmailS 2023.10.26 21:04 #33242 Aleksey Vyazmikin #:你在耍什么花招?视频如下 是这样 的 Aleksey Vyazmikin 2023.10.26 21:07 #33243 mytarmailS #: 这样 我这边是关于互联网上的一个地方,即一个链接。 mytarmailS 2023.10.26 21:10 #33244 Aleksey Vyazmikin #:我这边是关于互联网上的一个地方,即一个链接。 我不记得具体是哪篇文章了、 但也没有一百万篇,你可以查查。 Aleksey Vyazmikin 2023.10.26 21:11 #33245 mytarmailS #:我不记得是哪篇文章了、 但也不是一百万篇,你可以查查。 所以我搜索了一下,还没找到。 Andrey Dik 2023.10.26 21:14 #33246 Aleksey Vyazmikin #:我也是这么想的。我只是想问,原因是否已经查明?不是什么坏了,而是为什么信号会丢失。 原因很简单,正如它的本意--信号丢失是因为新数据的信号超出了可接受的狭窄范围。 这就好比分类,有明确的已知模式,也有模糊的未知模式。随着时间的推移,未知的模式越来越多,"已知 "的模式已经所剩无几。 Forester 2023.10.26 21:16 #33247 Aleksey Vyazmikin #:据称,使用这种算法可以在 cagle 上赢得第一名,但我认为这并不是简单的任务...要不要试试看?很遗憾,我不懂公式。 我也不喜欢公式,只喜欢想法。,如果你把这个想法细分一下,它对市场数据太不利了。 ,它建议删除非常接近的不同类别的成对例子。如果我们看第三个例子,理想情况下,0.2 到 0.8 之间的所有例子都会被删除,只有 0.2 以下和 0.8 以上的区域才会保留绝对纯净的类别。任何模型都可以很容易地对它们进行分类。 但这只是一个人为的例子。 在市场数据中,不会有这种以某一类为主的纯区块。也就是说,您必须清理几乎所有的数据。例如,有 1000 个点,900 个被清理,其余的达到了叶片的清洁度,例如 70%--看起来还不错,您可以赚到钱。但是,当您开始真正交易时,就会出现一些例子,我们在清理时把它们去掉了(9 个垃圾换 1 个剩余的),例如,指标从 70% 降到 53%,您就会在点差、滑点等方面亏损。,我更喜欢一棵树和一片叶子,其中一类的纯度为 53%。我不会使用它。 mytarmailS 2023.10.26 21:30 #33248 Aleksey Vyazmikin #:所以我搜索了一下,还没有任何结果。 会发生的 Aleksey Nikolayev 2023.10.26 22:31 #33249 Aleksey Vyazmikin #:我看不出这里有什么联系。它从何而来? 从你链接上的文字来看,甚至有一个关于它们之间联系的定理。别懒,至少读读你的链接。 Aleksey Vyazmikin 2023.10.26 22:32 #33250 Forester #: 我使用的也不是公式,而是想法。 而且,如果对这个想法进行细分,它对市场数据来说并不是那么好。 它建议删除彼此非常接近的不同类别的成对示例。如果我们看第三个例子,理想情况下,从 0.2 到 0.8 的所有例子都会被移除,只有 0.2 以下和 0.8 以上的区域才会保留类别的绝对纯度。任何模型都可以很容易地对它们进行分类。 但这只是一个人为的例子。 在市场数据中,不会有这种以某一类为主的纯区块。也就是说,您必须清理几乎所有的数据。例如,有 1000 个点,900 个被清理,其余的达到了叶片的清洁度,例如 70%--看起来还不错,您可以赚到钱。但是,当您开始真正交易时,就会出现一些例子,我们在清理时把它们去掉了(9 个垃圾换 1 个剩余的),例如,指标从 70% 降到 53%,您就会在点差、滑点等方面亏损。 ,我更喜欢一棵树和一片叶子,其中一类的纯度为 53%。我不会使用它。 在这一点上,我们对结果的想法是一致的。是的,我希望得到一个高度稀疏的样本,但据我了解,这个过程是迭代式的,这意味着您可以更早地了解测量结果并停止使用,然后使用相同的数据来建立相同的木材模型,这样就可以减少裂痕,使树叶中的数值更加可靠。 我的理解是否正确,初始中心的位置是随机的? 1...331833193320332133223323332433253326332733283329333033313332...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
这是在耍我吗?
什么是嘲弄?
这是视频
你在耍什么花招?
视频如下
是这样 的
这样
我这边是关于互联网上的一个地方,即一个链接。
我这边是关于互联网上的一个地方,即一个链接。
我不记得具体是哪篇文章了、
但也没有一百万篇,你可以查查。
我不记得是哪篇文章了、
但也不是一百万篇,你可以查查。
所以我搜索了一下,还没找到。
我也是这么想的。我只是想问,原因是否已经查明?不是什么坏了,而是为什么信号会丢失。
原因很简单,正如它的本意--信号丢失是因为新数据的信号超出了可接受的狭窄范围。
这就好比分类,有明确的已知模式,也有模糊的未知模式。随着时间的推移,未知的模式越来越多,"已知 "的模式已经所剩无几。
据称,使用这种算法可以在 cagle 上赢得第一名,但我认为这并不是简单的任务...
要不要试试看?很遗憾,我不懂公式。
,如果你把这个想法细分一下,它对市场数据太不利了。
,它建议删除非常接近的不同类别的成对例子。如果我们看第三个例子,理想情况下,0.2 到 0.8 之间的所有例子都会被删除,只有 0.2 以下和 0.8 以上的区域才会保留绝对纯净的类别。任何模型都可以很容易地对它们进行分类。
但这只是一个人为的例子。
在市场数据中,不会有这种以某一类为主的纯区块。也就是说,您必须清理几乎所有的数据。例如,有 1000 个点,900 个被清理,其余的达到了叶片的清洁度,例如 70%--看起来还不错,您可以赚到钱。但是,当您开始真正交易时,就会出现一些例子,我们在清理时把它们去掉了(9 个垃圾换 1 个剩余的),例如,指标从 70% 降到 53%,您就会在点差、滑点等方面亏损。
,我更喜欢一棵树和一片叶子,其中一类的纯度为 53%。我不会使用它。
所以我搜索了一下,还没有任何结果。
会发生的
我看不出这里有什么联系。它从何而来?
我使用的也不是公式,而是想法。 而且,如果对这个想法进行细分,它对市场数据来说并不是那么好。 它建议删除彼此非常接近的不同类别的成对示例。如果我们看第三个例子,理想情况下,从 0.2 到 0.8 的所有例子都会被移除,只有 0.2 以下和 0.8 以上的区域才会保留类别的绝对纯度。任何模型都可以很容易地对它们进行分类。 但这只是一个人为的例子。 在市场数据中,不会有这种以某一类为主的纯区块。也就是说,您必须清理几乎所有的数据。例如,有 1000 个点,900 个被清理,其余的达到了叶片的清洁度,例如 70%--看起来还不错,您可以赚到钱。但是,当您开始真正交易时,就会出现一些例子,我们在清理时把它们去掉了(9 个垃圾换 1 个剩余的),例如,指标从 70% 降到 53%,您就会在点差、滑点等方面亏损。 ,我更喜欢一棵树和一片叶子,其中一类的纯度为 53%。我不会使用它。
在这一点上,我们对结果的想法是一致的。是的,我希望得到一个高度稀疏的样本,但据我了解,这个过程是迭代式的,这意味着您可以更早地了解测量结果并停止使用,然后使用相同的数据来建立相同的木材模型,这样就可以减少裂痕,使树叶中的数值更加可靠。
我的理解是否正确,初始中心的位置是随机的?