交易中的机器学习:理论、模型、实践和算法交易 - 页 1966

 
Maxim Dmitrievsky:

切换到python,我给你举例,你可以使用。

我不认为在论坛上讨论这个问题有什么意义,因为RL不是一个初学者水平的话题。

一旦我读完这本书,我就会问))))。如果你不知道市场价格,那么你可能是对的,我不知道该怎么期望。如果你不知道时间,可能是另一种策略。

 
Maxim Dmitrievsky:

切换到python,我给你举例,你可以使用。

我不认为在论坛上讨论它有什么意义,因为RL不是一个入门级的话题。


你能给我发个电子邮件吗?

eugen420@gmail.com

 
Evgeni Gavrilovi:


你能把它用电子邮件发给我吗?

只给他,其余的都是收费的。

 
Maxim Dmitrievsky:

切换到python,我给你举例,你可以使用。

我不认为在论坛上讨论这个问题有什么意义,因为RL远远不是一个入门级的话题。

我会试一试的。

 
mytarmailS:

我会试一试的。

请看youtube上的介绍视频。它与R相同,只是有自己的特殊功能。过渡期应该没有任何问题。但你可以从mt5中提取kotier并开立交易。
 
Maxim Dmitrievsky:
看看YouTube上的介绍性视频。

是的,我就是这么做的))。

 
mytarmailS:

是的,我知道))。

如果手册写得没有错误,理解起来会更快。

集群层是一个Kohonen向量量化(LVQ)神经网络。集群层根据标准的LVQ算法对树突的结果进行分组。回顾一下,LQV 实现了无教师在线学习

首先,缩写中的字母是混在一起的(正确的是LVQ),其次,它是一种有讲师的教学方法。

而无师自通的方法被称为VQ(vector quantizatinon),那么它很可能是一个神经元,不是LVQ。


值得注意的是,LQV子网保留了对以前输入信号的记忆,作为LQV神经元最后输出的记忆。因此,对神经网络来说,可用的信息比直接输入的信息要多。

我还不明白这一点。最有可能指的是子网络输出的这些连接,它们回到了神经元。它们只是在储存关于过去行动的信息。

也就是说,存储器存储了LQV子网络。


 
Maxim Dmitrievsky:

如果手册写得没有错误,理解起来会更快。

集群层是一个Kohonen向量量化(LVQ)神经网络。集群层根据标准的LVQ算法对树突的结果进行分组。回顾一下,LQV 实现了无教师在线学习

首先,缩写中的字母是混在一起的(正确的是LVQ),其次,它是一种有讲师的教学方法。

和没有老师的方法被称为VQ(矢量量化),那么很可能是在神经元中,而不是LVQ。

不知道...我读了4遍,还是不明白,也许老师在那里是个加强版?

+还有来自各层的投票。

马克西姆-德米特里耶夫斯基

值得注意的是,LQV子网保留了对以前输入的记忆,作为对LQV神经元最后输出的记忆。因此,对神经网络来说,可用的信息比直接输入的信息要多。

我还不明白这一点。最有可能指的是子网络输出的这些连接,它们回到了神经元。它们只是在储存关于过去行动的信息。

也就是说,内存中存储的是LQV子网。

嗯,是的, LQV 中的记忆是以LQV神经元的最后输出 的形式出现的 但按照我的理解,它是倒退一步的记忆......

这个关于水壶和咖啡的奇妙比喻怎么样? 这就是整个圣杯。


他没有告诉你什么?

我想知道他们在哪里教这些东西。 这就像控制论、机器人学和...

DataSynthians只是技术学院的物理教育工作者)。


==============================================================

还有动态LVQ - - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

详细内容

dlvq : 输入的数据必须经过规范化处理才能使用DLVQ。

DLVQ学习:为每个类计算一个平均向量(原型),并存储在一个(新创建的)隐藏模块中。 然后,网络被用来使用最接近的原型对每个模式进行分类。 如果一个模式被错误地分类为y类而不是x类,原型y类将远离该模式,原型x类将移向该模式。然后将新的原型作为新的隐藏单元引入到每个类别的网络中,并以该类别中被误判的模板的平均矢量进行初始化。

网络结构:网络只有一个隐藏层,每个原型包含一个单元。 原型/隐藏单元也被称为编码本向量。 由于SNNS自动生成单元,不需要事先指定单元的数量,所以SNNS中的程序被称为 动态 LVQ。

默认的初始化、学习和更新函数是唯一适合这种类型网络的函数。 学习函数的三个参数定义了两个学习率(针对正确/不正确分类的情况)和网络在计算平均向量之前的训练周期数。

参考文献

Kohonen, T. (1988),Self-organization and associative memory, Vol.8, Springer-Verlag.



=========================================================


伙计,我读了这个LVQ,它就像Kohonen(SOM),但有一个老师

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm, those%20instances%20should%20look%20like.

 

谁解决了参照目标对数字范围进行量化的问题?在我的例子中,它是非均匀的 "量化"--一个自动调谐到目标的过程,有一个范围内最小数字的限制或数字表达的窗口本身--还没有决定。

CatBoost 进行的实验表明,量化对结果有强烈的影响(在某些情况下可达15% acurasi)。

 
Aleksey Vyazmikin:

谁解决了参照目标对数字范围进行量化的问题?在我的例子中,它是非均匀的 "量化"--一个自动调谐到目标的过程,有一个范围内最小数字的限制或数字表达的窗口本身--还没有决定。

用CatBoost进行的实验表明,量化对结果的影响很大(在某些情况下高达15%的acurasi)。

https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html

用于对目标进行离散化(量化)的软件包。