交易中的机器学习:理论、模型、实践和算法交易 - 页 1966 1...195919601961196219631964196519661967196819691970197119721973...3399 新评论 Valeriy Yastremskiy 2020.08.13 14:44 #19651 Maxim Dmitrievsky: 切换到python,我给你举例,你可以使用。我不认为在论坛上讨论这个问题有什么意义,因为RL不是一个初学者水平的话题。 一旦我读完这本书,我就会问))))。如果你不知道市场价格,那么你可能是对的,我不知道该怎么期望。如果你不知道时间,可能是另一种策略。 Evgeni Gavrilovi 2020.08.13 15:32 #19652 Maxim Dmitrievsky: 切换到python,我给你举例,你可以使用。我不认为在论坛上讨论它有什么意义,因为RL不是一个入门级的话题。 你能给我发个电子邮件吗? eugen420@gmail.com Maxim Dmitrievsky 2020.08.13 16:01 #19653 Evgeni Gavrilovi: 你能把它用电子邮件发给我吗? 只给他,其余的都是收费的。 mytarmailS 2020.08.13 16:07 #19654 Maxim Dmitrievsky: 切换到python,我给你举例,你可以使用。我不认为在论坛上讨论这个问题有什么意义,因为RL远远不是一个入门级的话题。 我会试一试的。 Maxim Dmitrievsky 2020.08.13 16:21 #19655 mytarmailS: 我会试一试的。 请看youtube上的介绍视频。它与R相同,只是有自己的特殊功能。过渡期应该没有任何问题。但你可以从mt5中提取kotier并开立交易。 mytarmailS 2020.08.13 16:24 #19656 Maxim Dmitrievsky: 看看YouTube上的介绍性视频。 是的,我就是这么做的))。 Maxim Dmitrievsky 2020.08.14 03:37 #19657 mytarmailS: 是的,我知道))。 如果手册写得没有错误,理解起来会更快。 集群层是一个Kohonen向量量化(LVQ)神经网络。集群层根据标准的LVQ算法对树突的结果进行分组。回顾一下,LQV 实现了无教师在线学习 。 首先,缩写中的字母是混在一起的(正确的是LVQ),其次,它是一种有讲师的教学方法。 而无师自通的方法被称为VQ(vector quantizatinon),那么它很可能是一个神经元,不是LVQ。 值得注意的是,LQV子网保留了对以前输入信号的记忆,作为LQV神经元最后输出的记忆。因此,对神经网络来说,可用的信息比直接输入的信息要多。 我还不明白这一点。最有可能指的是子网络输出的这些连接,它们回到了神经元。它们只是在储存关于过去行动的信息。 也就是说,存储器存储了LQV子网络。 mytarmailS 2020.08.14 06:12 #19658 Maxim Dmitrievsky: 如果手册写得没有错误,理解起来会更快。 集群层是一个Kohonen向量量化(LVQ)神经网络。集群层根据标准的LVQ算法对树突的结果进行分组。回顾一下,LQV 实现了无教师在线学习 。首先,缩写中的字母是混在一起的(正确的是LVQ),其次,它是一种有讲师的教学方法。和没有老师的方法被称为VQ(矢量量化),那么很可能是在神经元中,而不是LVQ。 不知道...我读了4遍,还是不明白,也许老师在那里是个加强版? +还有来自各层的投票。 马克西姆-德米特里耶夫斯基。 值得注意的是,LQV子网保留了对以前输入的记忆,作为对LQV神经元最后输出的记忆。因此,对神经网络来说,可用的信息比直接输入的信息要多。 我还不明白这一点。最有可能指的是子网络输出的这些连接,它们回到了神经元。它们只是在储存关于过去行动的信息。也就是说,内存中存储的是LQV子网。 嗯,是的, LQV 中的记忆是以LQV神经元的最后输出 的形式出现的, 但按照我的理解,它是倒退一步的记忆...... 这个关于水壶和咖啡的奇妙比喻怎么样? 这就是整个圣杯。 他没有告诉你什么? 我想知道他们在哪里教这些东西。 这就像控制论、机器人学和... DataSynthians只是技术学院的物理教育工作者)。 ============================================================== 还有动态LVQ - - dlvq https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq 详细内容 dlvq : 输入的数据必须经过规范化处理才能使用DLVQ。 DLVQ学习:为每个类计算一个平均向量(原型),并存储在一个(新创建的)隐藏模块中。 然后,网络被用来使用最接近的原型对每个模式进行分类。 如果一个模式被错误地分类为y类而不是x类,原型y类将远离该模式,原型x类将移向该模式。然后将新的原型作为新的隐藏单元引入到每个类别的网络中,并以该类别中被误判的模板的平均矢量进行初始化。 网络结构:网络只有一个隐藏层,每个原型包含一个单元。 原型/隐藏单元也被称为编码本向量。 由于SNNS自动生成单元,不需要事先指定单元的数量,所以SNNS中的程序被称为 动态 LVQ。 默认的初始化、学习和更新函数是唯一适合这种类型网络的函数。 学习函数的三个参数定义了两个学习率(针对正确/不正确分类的情况)和网络在计算平均向量之前的训练周期数。 参考文献 Kohonen, T. (1988),Self-organization and associative memory, Vol.8, Springer-Verlag. ========================================================= 伙计,我读了这个LVQ,它就像Kohonen(SOM),但有一个老师。 https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm, those%20instances%20should%20look%20like. Aleksey Vyazmikin 2020.08.14 08:13 #19659 谁解决了参照目标对数字范围进行量化的问题?在我的例子中,它是非均匀的 "量化"--一个自动调谐到目标的过程,有一个范围内最小数字的限制或数字表达的窗口本身--还没有决定。 用CatBoost 进行的实验表明,量化对结果有强烈的影响(在某些情况下可达15% acurasi)。 mytarmailS 2020.08.14 08:35 #19660 Aleksey Vyazmikin: 谁解决了参照目标对数字范围进行量化的问题?在我的例子中,它是非均匀的 "量化"--一个自动调谐到目标的过程,有一个范围内最小数字的限制或数字表达的窗口本身--还没有决定。用CatBoost进行的实验表明,量化对结果的影响很大(在某些情况下高达15%的acurasi)。 https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html 用于对目标进行离散化(量化)的软件包。 1...195919601961196219631964196519661967196819691970197119721973...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
切换到python,我给你举例,你可以使用。
我不认为在论坛上讨论这个问题有什么意义,因为RL不是一个初学者水平的话题。
一旦我读完这本书,我就会问))))。如果你不知道市场价格,那么你可能是对的,我不知道该怎么期望。如果你不知道时间,可能是另一种策略。
切换到python,我给你举例,你可以使用。
我不认为在论坛上讨论它有什么意义,因为RL不是一个入门级的话题。
你能给我发个电子邮件吗?
eugen420@gmail.com
你能把它用电子邮件发给我吗?
只给他,其余的都是收费的。
切换到python,我给你举例,你可以使用。
我不认为在论坛上讨论这个问题有什么意义,因为RL远远不是一个入门级的话题。
我会试一试的。
我会试一试的。
看看YouTube上的介绍性视频。
是的,我就是这么做的))。
是的,我知道))。
如果手册写得没有错误,理解起来会更快。
集群层是一个Kohonen向量量化(LVQ)神经网络。集群层根据标准的LVQ算法对树突的结果进行分组。回顾一下,LQV 实现了无教师在线学习 。
首先,缩写中的字母是混在一起的(正确的是LVQ),其次,它是一种有讲师的教学方法。
而无师自通的方法被称为VQ(vector quantizatinon),那么它很可能是一个神经元,不是LVQ。
值得注意的是,LQV子网保留了对以前输入信号的记忆,作为LQV神经元最后输出的记忆。因此,对神经网络来说,可用的信息比直接输入的信息要多。
我还不明白这一点。最有可能指的是子网络输出的这些连接,它们回到了神经元。它们只是在储存关于过去行动的信息。
也就是说,存储器存储了LQV子网络。
如果手册写得没有错误,理解起来会更快。
集群层是一个Kohonen向量量化(LVQ)神经网络。集群层根据标准的LVQ算法对树突的结果进行分组。回顾一下,LQV 实现了无教师在线学习 。
首先,缩写中的字母是混在一起的(正确的是LVQ),其次,它是一种有讲师的教学方法。
和没有老师的方法被称为VQ(矢量量化),那么很可能是在神经元中,而不是LVQ。
不知道...我读了4遍,还是不明白,也许老师在那里是个加强版?
+还有来自各层的投票。
值得注意的是,LQV子网保留了对以前输入的记忆,作为对LQV神经元最后输出的记忆。因此,对神经网络来说,可用的信息比直接输入的信息要多。
我还不明白这一点。最有可能指的是子网络输出的这些连接,它们回到了神经元。它们只是在储存关于过去行动的信息。
也就是说,内存中存储的是LQV子网。
嗯,是的, LQV 中的记忆是以LQV神经元的最后输出 的形式出现的, 但按照我的理解,它是倒退一步的记忆......
这个关于水壶和咖啡的奇妙比喻怎么样? 这就是整个圣杯。
他没有告诉你什么?
我想知道他们在哪里教这些东西。 这就像控制论、机器人学和...
DataSynthians只是技术学院的物理教育工作者)。
==============================================================
还有动态LVQ - - dlvq
https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq
详细内容
dlvq : 输入的数据必须经过规范化处理才能使用DLVQ。
DLVQ学习:为每个类计算一个平均向量(原型),并存储在一个(新创建的)隐藏模块中。 然后,网络被用来使用最接近的原型对每个模式进行分类。 如果一个模式被错误地分类为y类而不是x类,原型y类将远离该模式,原型x类将移向该模式。然后将新的原型作为新的隐藏单元引入到每个类别的网络中,并以该类别中被误判的模板的平均矢量进行初始化。
网络结构:网络只有一个隐藏层,每个原型包含一个单元。 原型/隐藏单元也被称为编码本向量。 由于SNNS自动生成单元,不需要事先指定单元的数量,所以SNNS中的程序被称为 动态 LVQ。
默认的初始化、学习和更新函数是唯一适合这种类型网络的函数。 学习函数的三个参数定义了两个学习率(针对正确/不正确分类的情况)和网络在计算平均向量之前的训练周期数。
参考文献
Kohonen, T. (1988),Self-organization and associative memory, Vol.8, Springer-Verlag.
=========================================================
伙计,我读了这个LVQ,它就像Kohonen(SOM),但有一个老师。
https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm, those%20instances%20should%20look%20like.
谁解决了参照目标对数字范围进行量化的问题?在我的例子中,它是非均匀的 "量化"--一个自动调谐到目标的过程,有一个范围内最小数字的限制或数字表达的窗口本身--还没有决定。
用CatBoost 进行的实验表明,量化对结果有强烈的影响(在某些情况下可达15% acurasi)。
谁解决了参照目标对数字范围进行量化的问题?在我的例子中,它是非均匀的 "量化"--一个自动调谐到目标的过程,有一个范围内最小数字的限制或数字表达的窗口本身--还没有决定。
用CatBoost进行的实验表明,量化对结果的影响很大(在某些情况下高达15%的acurasi)。
https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html
用于对目标进行离散化(量化)的软件包。