交易中的机器学习:理论、模型、实践和算法交易 - 页 1967

[删除]  
mytarmailS:

我不知道...我读了四遍,还是不明白,也许老师是个备胎?

+还有更多的投票在进行,从层层递进。

嗯,是的, LQV 中的记忆是以LQV神经元的最后输出 为形式的 但据我所知,记忆只是退一步......

这个关于水壶和咖啡的奇妙比喻是什么? 这就是整个圣杯...


他没有告诉你什么?

我想知道他们在哪里教这些东西。 这就像控制论、机器人学和...

DataSynthians只是技术学院的物理教育工作者)。


==============================================================

还有动态LVQ - - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

详细内容

dlvq : 输入的数据必须经过规范化处理才能使用DLVQ。

DLVQ学习:对于每个类别,计算出一个平均向量(原型),并存储在一个(新创建的)隐藏模块中。 然后,网络被用来使用最接近的原型对每个模式进行分类。 如果一个模式被错误地分类为y类而不是x类,原型y类将远离该模式,原型x类将移向该模式。然后将新的原型作为新的隐藏单元引入到每个类别的网络中,并通过该类别中错误分类的模板的平均矢量进行初始化。

网络结构:网络只有一个隐藏层,每个原型包含一个单元。 原型/隐藏单元也被称为编码本向量。 由于SNNS自动生成单元,不需要事先指定单元的数量,因此SNNS中的程序被称为 动态 LVQ。

默认的初始化、学习和更新函数是唯一适合这种类型网络的函数。 学习函数的三个参数定义了两个学习率(针对正确/不正确分类的情况)和网络在计算平均向量之前的训练周期数。

参考文献

Kohonen, T. (1988),Self-organization and associative memory, Vol.8, Springer-Verlag.



=========================================================


伙计,我读了这个LVQ,它就像Kohonen(SOM),但有一个老师

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm, those%20instances%20should%20look%20like.

这不是LVQ,是VQ。

没反应

可能是由于连接稀疏,不知何故,并非所有的神经元都是活跃的,所以记忆可能需要更长的时间来保留。除此之外,还有联想记忆(哪一组特征属于哪一个集群)。守则书就是这么叫的。

这都是控制理论的内容,他们可能在大学里教过这个。原文是2015年一些中国人的文章。我没有办法接触到它。这个可能已经是个重头戏了。

 
Maxim Dmitrievsky:

这不是LVQ,是VQ。

没有回应。

可能是由于连接稀疏,不知何故,并非所有的神经元都是活跃的,所以记忆可能需要更长的时间来保留。除此之外,还有联想记忆(哪一组特征属于哪一个集群)。守则书就是这么叫的。

这都是控制理论的内容,他们可能在大学里教过这个。原文是2015年一些中国人的文章。我没有办法接触到它。最有可能的是,这个人已经是一个返工。

事实证明,先对裸数据进行矢量量化,然后再考虑到结果,结果更准确。至少出现了一个负面结果的过滤器。不同集群的特征集,这就像把一排划分为不同的稳定段。

[删除]  
Valeriy Yastremskiy:

事实证明,向量的量化首先在原始数据上进行,然后在结果上进行,这使得结果更加准确。至少出现了负面结果的过滤器。成套的特征到不同的集群,这就像把一排划分为不同的稳定部分。

很难想象漫长的记忆是从哪里来的。例如,在上一次迭代中,最后一个神经元产生了一个零,在下一次迭代中把它加到第一个神经元的输入向量中。迭代。它是+1维的,也就是说,我们把特征放到一个新的空间里,得到一个更复杂的条件状态,取决于之前的行动。第一个神经元工作并向最后一个神经元发送一个单位矢量。后者对第一个返回0或1。假设只有2个群组。记忆的深度在哪里,比退后1步还要深?

假设有第3个神经元,它取另一个+1值。甚至更复杂的条件状态。就这样按升序排列,记忆被储存起来...难以想象 :)

 
Maxim Dmitrievsky:

......... 存储的记忆...难以想象 :)

对我来说更难)

====


联想网络

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


这和聚类是一样的,不是吗? 而联想的图像就是聚类的原型。

[删除]  
mytarmailS:

对我来说更难)

在第2层,你也可以以递归链接的形式添加内存,但没有它们也可以工作。所以内存毕竟是在第1层。

[删除]  
mytarmailS:

这对我来说更难了 )

====


联想网络

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


这和聚类是一样的,不是吗? 而联想的图像是一个原型的聚类

嗯,是的,但它对代理人以前的行为没有记忆,这是不一样的。

我再去看一下活页夹,然后再去搞一下代码。

 
Maxim Dmitrievsky:

嗯,是的,但没有对代理人以前的行为的记忆,那是不同的。

我再去看看活页夹,然后再去探究一下代码。

让我们看看,让我们考虑一下 )

一个代理行动是一个图像,一个模式(集群)。

行动的顺序(群组)是内存


代理人的行动或任何事情都可以表示为一个集群的序列

但像 "倒咖啡 "这样的模式但 "咖啡必须已经煮好"


可以表示为一个过渡的模式


[删除]  
mytarmailS:

让我们看看,让我们想想)。

一个代理行动是一个图像,一个模式(集群)。

一系列的行动(群组)是内存

代理人的行动或其他什么都可以表示为一个集群的序列

不完全是这样。代理人之前的行动+环境状态(一组特征)是一个模式(条件状态)。以前的行动和特征都被塞进了1个矢量。

但在神经元中,没有明确的信息,只通过保存输出信号来传递模式的顺序。而那里只处理了1个(当前)模式。也就是说,更复杂的条件状态是由一组神经元以某种方式编码的。

 

马克西姆-德米特里耶夫斯基

以前的行动和折叠都被塞进了1个矢量。

但在神经元中,没有关于序列的明确信息,只是通过保存输出信号。而那里只有1个图案被处理。

那么,这也可以通过同样的umap简化为一个单一的向量。我以这种方式压缩了2千枚芯片 )

[删除]  
mytarmailS:

那么它可以合并成一个单一的向量,由同一个umap。我就是这样压缩了2千枚筹码)

这就是这层的作用。