交易中的机器学习:理论、模型、实践和算法交易 - 页 1967 1...196019611962196319641965196619671968196919701971197219731974...3399 新评论 [删除] 2020.08.14 09:48 #19661 mytarmailS: 我不知道...我读了四遍,还是不明白,也许老师是个备胎? +还有更多的投票在进行,从层层递进。嗯,是的, LQV 中的记忆是以LQV神经元的最后输出 为形式的, 但据我所知,记忆只是退一步......这个关于水壶和咖啡的奇妙比喻是什么? 这就是整个圣杯...他没有告诉你什么?我想知道他们在哪里教这些东西。 这就像控制论、机器人学和...DataSynthians只是技术学院的物理教育工作者)。==============================================================还有动态LVQ - - dlvqhttps://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq详细内容 dlvq : 输入的数据必须经过规范化处理才能使用DLVQ。 DLVQ学习:对于每个类别,计算出一个平均向量(原型),并存储在一个(新创建的)隐藏模块中。 然后,网络被用来使用最接近的原型对每个模式进行分类。 如果一个模式被错误地分类为y类而不是x类,原型y类将远离该模式,原型x类将移向该模式。然后将新的原型作为新的隐藏单元引入到每个类别的网络中,并通过该类别中错误分类的模板的平均矢量进行初始化。 网络结构:网络只有一个隐藏层,每个原型包含一个单元。 原型/隐藏单元也被称为编码本向量。 由于SNNS自动生成单元,不需要事先指定单元的数量,因此SNNS中的程序被称为 动态 LVQ。 默认的初始化、学习和更新函数是唯一适合这种类型网络的函数。 学习函数的三个参数定义了两个学习率(针对正确/不正确分类的情况)和网络在计算平均向量之前的训练周期数。 参考文献 Kohonen, T. (1988),Self-organization and associative memory, Vol.8, Springer-Verlag.=========================================================伙计,我读了这个LVQ,它就像Kohonen(SOM),但有一个老师。https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm, those%20instances%20should%20look%20like. 这不是LVQ,是VQ。 没反应 可能是由于连接稀疏,不知何故,并非所有的神经元都是活跃的,所以记忆可能需要更长的时间来保留。除此之外,还有联想记忆(哪一组特征属于哪一个集群)。守则书就是这么叫的。 这都是控制理论的内容,他们可能在大学里教过这个。原文是2015年一些中国人的文章。我没有办法接触到它。这个可能已经是个重头戏了。 Valeriy Yastremskiy 2020.08.14 10:21 #19662 Maxim Dmitrievsky: 这不是LVQ,是VQ。没有回应。可能是由于连接稀疏,不知何故,并非所有的神经元都是活跃的,所以记忆可能需要更长的时间来保留。除此之外,还有联想记忆(哪一组特征属于哪一个集群)。守则书就是这么叫的。这都是控制理论的内容,他们可能在大学里教过这个。原文是2015年一些中国人的文章。我没有办法接触到它。最有可能的是,这个人已经是一个返工。 事实证明,先对裸数据进行矢量量化,然后再考虑到结果,结果更准确。至少出现了一个负面结果的过滤器。不同集群的特征集,这就像把一排划分为不同的稳定段。 [删除] 2020.08.14 10:30 #19663 Valeriy Yastremskiy: 事实证明,向量的量化首先在原始数据上进行,然后在结果上进行,这使得结果更加准确。至少出现了负面结果的过滤器。成套的特征到不同的集群,这就像把一排划分为不同的稳定部分。 很难想象漫长的记忆是从哪里来的。例如,在上一次迭代中,最后一个神经元产生了一个零,在下一次迭代中把它加到第一个神经元的输入向量中。迭代。它是+1维的,也就是说,我们把特征放到一个新的空间里,得到一个更复杂的条件状态,取决于之前的行动。第一个神经元工作并向最后一个神经元发送一个单位矢量。后者对第一个返回0或1。假设只有2个群组。记忆的深度在哪里,比退后1步还要深? 假设有第3个神经元,它取另一个+1值。甚至更复杂的条件状态。就这样按升序排列,记忆被储存起来...难以想象 :) mytarmailS 2020.08.14 10:32 #19664 Maxim Dmitrievsky: ......... 存储的记忆...难以想象 :) 对我来说更难) ==== 联想网络 https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz 这和聚类是一样的,不是吗? 而联想的图像就是聚类的原型。 [删除] 2020.08.14 10:37 #19665 mytarmailS: 对我来说更难) 在第2层,你也可以以递归链接的形式添加内存,但没有它们也可以工作。所以内存毕竟是在第1层。 [删除] 2020.08.14 10:43 #19666 mytarmailS: 这对我来说更难了 )====联想网络https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz这和聚类是一样的,不是吗? 而联想的图像是一个原型的聚类 嗯,是的,但它对代理人以前的行为没有记忆,这是不一样的。 我再去看一下活页夹,然后再去搞一下代码。 mytarmailS 2020.08.14 10:52 #19667 Maxim Dmitrievsky: 嗯,是的,但没有对代理人以前的行为的记忆,那是不同的。我再去看看活页夹,然后再去探究一下代码。 让我们看看,让我们考虑一下 ) 一个代理行动是一个图像,一个模式(集群)。 行动的顺序(群组)是内存 代理人的行动或任何事情都可以表示为一个集群的序列 但像 "倒咖啡 "这样的模式但 "咖啡必须已经煮好" 可以表示为一个过渡的模式 [删除] 2020.08.14 10:56 #19668 mytarmailS: 让我们看看,让我们想想)。一个代理行动是一个图像,一个模式(集群)。一系列的行动(群组)是内存代理人的行动或其他什么都可以表示为一个集群的序列 不完全是这样。代理人之前的行动+环境状态(一组特征)是一个模式(条件状态)。以前的行动和特征都被塞进了1个矢量。 但在神经元中,没有明确的信息,只通过保存输出信号来传递模式的顺序。而那里只处理了1个(当前)模式。也就是说,更复杂的条件状态是由一组神经元以某种方式编码的。 mytarmailS 2020.08.14 10:58 #19669 马克西姆-德米特里耶夫斯基。 以前的行动和折叠都被塞进了1个矢量。 但在神经元中,没有关于序列的明确信息,只是通过保存输出信号。而那里只有1个图案被处理。 那么,这也可以通过同样的umap简化为一个单一的向量。我以这种方式压缩了2千枚芯片 ) [删除] 2020.08.14 11:02 #19670 mytarmailS: 那么它可以合并成一个单一的向量,由同一个umap。我就是这样压缩了2千枚筹码) 这就是这层的作用。 1...196019611962196319641965196619671968196919701971197219731974...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我不知道...我读了四遍,还是不明白,也许老师是个备胎?
+还有更多的投票在进行,从层层递进。
嗯,是的, LQV 中的记忆是以LQV神经元的最后输出 为形式的, 但据我所知,记忆只是退一步......
这个关于水壶和咖啡的奇妙比喻是什么? 这就是整个圣杯...
他没有告诉你什么?
我想知道他们在哪里教这些东西。 这就像控制论、机器人学和...
DataSynthians只是技术学院的物理教育工作者)。
==============================================================
还有动态LVQ - - dlvq
https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq
详细内容
dlvq : 输入的数据必须经过规范化处理才能使用DLVQ。
DLVQ学习:对于每个类别,计算出一个平均向量(原型),并存储在一个(新创建的)隐藏模块中。 然后,网络被用来使用最接近的原型对每个模式进行分类。 如果一个模式被错误地分类为y类而不是x类,原型y类将远离该模式,原型x类将移向该模式。然后将新的原型作为新的隐藏单元引入到每个类别的网络中,并通过该类别中错误分类的模板的平均矢量进行初始化。
网络结构:网络只有一个隐藏层,每个原型包含一个单元。 原型/隐藏单元也被称为编码本向量。 由于SNNS自动生成单元,不需要事先指定单元的数量,因此SNNS中的程序被称为 动态 LVQ。
默认的初始化、学习和更新函数是唯一适合这种类型网络的函数。 学习函数的三个参数定义了两个学习率(针对正确/不正确分类的情况)和网络在计算平均向量之前的训练周期数。
参考文献
Kohonen, T. (1988),Self-organization and associative memory, Vol.8, Springer-Verlag.
=========================================================
伙计,我读了这个LVQ,它就像Kohonen(SOM),但有一个老师。
https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm, those%20instances%20should%20look%20like.
这不是LVQ,是VQ。
没反应
可能是由于连接稀疏,不知何故,并非所有的神经元都是活跃的,所以记忆可能需要更长的时间来保留。除此之外,还有联想记忆(哪一组特征属于哪一个集群)。守则书就是这么叫的。
这都是控制理论的内容,他们可能在大学里教过这个。原文是2015年一些中国人的文章。我没有办法接触到它。这个可能已经是个重头戏了。
这不是LVQ,是VQ。
没有回应。
可能是由于连接稀疏,不知何故,并非所有的神经元都是活跃的,所以记忆可能需要更长的时间来保留。除此之外,还有联想记忆(哪一组特征属于哪一个集群)。守则书就是这么叫的。
这都是控制理论的内容,他们可能在大学里教过这个。原文是2015年一些中国人的文章。我没有办法接触到它。最有可能的是,这个人已经是一个返工。
事实证明,先对裸数据进行矢量量化,然后再考虑到结果,结果更准确。至少出现了一个负面结果的过滤器。不同集群的特征集,这就像把一排划分为不同的稳定段。
事实证明,向量的量化首先在原始数据上进行,然后在结果上进行,这使得结果更加准确。至少出现了负面结果的过滤器。成套的特征到不同的集群,这就像把一排划分为不同的稳定部分。
很难想象漫长的记忆是从哪里来的。例如,在上一次迭代中,最后一个神经元产生了一个零,在下一次迭代中把它加到第一个神经元的输入向量中。迭代。它是+1维的,也就是说,我们把特征放到一个新的空间里,得到一个更复杂的条件状态,取决于之前的行动。第一个神经元工作并向最后一个神经元发送一个单位矢量。后者对第一个返回0或1。假设只有2个群组。记忆的深度在哪里,比退后1步还要深?
假设有第3个神经元,它取另一个+1值。甚至更复杂的条件状态。就这样按升序排列,记忆被储存起来...难以想象 :)
......... 存储的记忆...难以想象 :)
对我来说更难)
====
联想网络
https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz
这和聚类是一样的,不是吗? 而联想的图像就是聚类的原型。
对我来说更难)
在第2层,你也可以以递归链接的形式添加内存,但没有它们也可以工作。所以内存毕竟是在第1层。
这对我来说更难了 )
====
联想网络
https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz
这和聚类是一样的,不是吗? 而联想的图像是一个原型的聚类
嗯,是的,但它对代理人以前的行为没有记忆,这是不一样的。
我再去看一下活页夹,然后再去搞一下代码。
嗯,是的,但没有对代理人以前的行为的记忆,那是不同的。
我再去看看活页夹,然后再去探究一下代码。
让我们看看,让我们考虑一下 )
一个代理行动是一个图像,一个模式(集群)。
行动的顺序(群组)是内存
代理人的行动或任何事情都可以表示为一个集群的序列
但像 "倒咖啡 "这样的模式但 "咖啡必须已经煮好"
可以表示为一个过渡的模式
让我们看看,让我们想想)。
一个代理行动是一个图像,一个模式(集群)。
一系列的行动(群组)是内存
代理人的行动或其他什么都可以表示为一个集群的序列
不完全是这样。代理人之前的行动+环境状态(一组特征)是一个模式(条件状态)。以前的行动和特征都被塞进了1个矢量。
但在神经元中,没有明确的信息,只通过保存输出信号来传递模式的顺序。而那里只处理了1个(当前)模式。也就是说,更复杂的条件状态是由一组神经元以某种方式编码的。
马克西姆-德米特里耶夫斯基。
以前的行动和折叠都被塞进了1个矢量。
但在神经元中,没有关于序列的明确信息,只是通过保存输出信号。而那里只有1个图案被处理。
那么,这也可以通过同样的umap简化为一个单一的向量。我以这种方式压缩了2千枚芯片 )
那么它可以合并成一个单一的向量,由同一个umap。我就是这样压缩了2千枚筹码)
这就是这层的作用。