在交易中使用神经网络。 - 页 5

 

虽然我没有在市场上处理神经网络,但就我个人而言,我敢猜测普通的线性归一化会比单位方差的归一化更好,因为在新数据上重新训练网络应该会好得多,而不会改变新数据的潜在散点的差距,当然这不能通过把系列带到一个中心来完成。有了这样的规范化,就必须改变网络中的一切,甚至是加权系数,即简单地重新训练网络,而不是改进其加权系数。但这只是一种推测。它需要被测试。

 
registred >> :

虽然我没有在市场上处理神经网络,但就我个人而言,我敢猜测普通的线性归一化会比单位方差的归一化更好,因为在新数据上重新训练网络应该会好得多,而不会改变新数据的潜在散点的差距,当然这不能通过把系列带到一个中心来完成。有了这样的规范化,就必须改变网络中的一切,甚至是加权系数,即简单地重新训练网络,而不是改进其加权系数。但这只是一种推测。它需要被测试。


我有一个网络,每24小时简单地重新训练。我不知道这是个优点还是缺点。但是,只要它是有趣的。

 
Neutron >> :

我需要问一下Prival,如何从一个任意值中以分析形式得到所需的分布(矩形)。

Privalych现在可能已经睡着了,所以我试着替他回答。我曾经根据[0,1]上的均匀分布的正态值建立了一个模型。同时,我不得不从一个均匀分布的随机变量中计算出一个积分高斯函数的反函数。 因此,为了从一个正态分布的随机变量中得到一个均匀分布的随机变量,我们必须从前者中计算出一个积分高斯函数。

以此类推,为了从一个随机分布的数值中得到一个均匀分布的数值,你应该先找出第一个数值的积分分布函数,并将其应用于下一个数值。我希望我没有搞砸太多。

 

嗨,阿列克谢

让我们把它变得缓慢而清晰(特别是对我来说)。

因此,我们有指数分布 的SV,形式为Y=A*exp{-a*X} 。其中X是 送入NS输入的数据的振幅 我们想找到一些神奇的函数f(x), 作用于一些输入数据X 允许获得它们在+/-1区间的矩形分布。要做到这一点,你建议。

1.找到一个函数,它是积分高斯 的逆 函数。求积分:Z=-A/a*exp{-a*X},现在求它的逆: X=1/a*ln(-A/a/Z)

这就是所希望的f(x)=1/a*ln(-A/a/x) 吗?

 
sol писал(а)>>

我的网络只是每24小时进行一次重新训练。我不知道这是个优点还是缺点。但是,到目前为止,它很时髦。

我认为它不在MQL中?

 
FION писал(а)>>

我认为它不是在MQL中?

我每次退出市场时都会重新训练网格,然后再进去。

 
Neutron писал(а)>>

我的网格在每次市场退出时,在新的进入之前都会重新训练。

网的结构是什么,有多少条目,重新训练需要多长时间,在MQL或外部软件上?

 

在MQL中,几十行代码,9kB的容量。

网格100/2/1,架构可任意扩展(包括隐藏层的数量)。隐蔽层/s与下切,输出显示买/卖(符号)。在大约100毫秒内重新学习(再学习)。

尽管我很努力,但增加隐藏层的神经元并没有给计算能力带来任何明显的增加,而是使训练变得更加困难。也许这些特殊性与具体的任务有关,其结果不能一概而论。

 
Neutron писал(а)>>

在MQL中,几十行代码,9kB的容量。

网格100/2/1,架构可任意扩展(包括隐藏层的数量)。隐蔽层/s与下切,输出显示买/卖(符号)。在大约100毫秒内重新学习(再学习)。

尽管我很努力,但增加隐藏层的神经元并没有给计算能力带来任何明显的增加,而是使训练变得更加困难。也许这些特殊性与特定任务有关,其结果不能一概而论。

你说的 "架构任意扩展 "是什么意思?据我所知,架构是网络的一种结构。而缩放是使用一些数据配给的功能。100个输入是有点多。还是说你的100元是别的东西?

 

Neutron писал(а) >>

让我们把它变得缓慢而清晰(特别是对我来说)。

因此,我们有指数型分布的SV

好吧,谢尔盖,让我们慢慢地、悲哀地接受它。首先,让我们来处理一般定理。这里有一个链接。见定理24、25、26。

注:第24题涉及分布的密度 函数。

但Th 25做的正是你想要的,它是关于分布函数的。

为了好玩,还可以看看Th 26的第8条推论。 第三条推论公式正是我想从一个均匀的高斯中得到高斯的时候所说的。

而对于你的指数分布,只需要整齐地得到它的分布函数(积分)并应用Th 25。

顺便说一句,练习36的最后一句话让我感到好笑("(注意:没有人这样得到它。)")。而我,傻瓜,我就是这样得到的(Codabase有一个状态函数库)......