在交易中使用神经网络。 - 页 4

 
StatBars >> :

我认为从你的帖子中可以看出,规范化更多地取决于数据,而不是手头的任务。

关于第二部分:你是否考虑增量MA和增量系列?

而一般来说,你的意思是,训练好的网络应该对输入数据不敏感(对每个单独的输入),还是只要改变输入数据,网络仍然应该做出预测?

是的,对数据分布的依赖会影响学习的速度和质量。也就是说,规范化本质上分别影响了速度和质量。关于第二部分,当然不是,你不能把完全不同的数据塞进同一个数据的训练有素的神经网络中,但就是这样,描述的分布也足够准确。数据的分布、类型应始终保持不变。但是,如果你用一种数据来训练一个网络,准确地描述了这个过程,而你用新训练的网络中的其他数据来描述这个过程,得到了非常不同的结果,那么这意味着你可能把错误的问题交给了神经网络。数据首先必须是完全描述过程的,其次你必须减少这样一个概括误差,在要求网络概括定性方面是足够的。所有这些都发生在字面上的直觉层面。如果过程被充分描述,摆弄数据类型是没有用的,但值得向网络提出正确的问题。

 

关于预处理的一两句话。

来源样本:产出与投入相关(最显著的相关性)。corr=0.64。

图上:坐标X--输入数据。Y - 要求输出

删除线性关系。你不需要一个网络来寻找线性依赖,此外,它将恶化神经网络的结果。

这就是与装饰有关的数据的样子。

你也可以从第一张图中看到,数据点的密度集中在中心,而沿边缘则很稀疏。

因此,集中在中心的点会给网络训练带来主要的刺激,或者说它们的误差值会超过边缘的数据的误差值。网络首先会找到采样的期望值,它正好在中心位置,然后观察最小误差条件,在它周围分布。

因此,频率分布函数被均衡化了,它拉平了误差的重要性,网络有明确的激励措施来实现分布中心以及数据分布边缘的最小误差。

有了正弦波函数,输入和输出数据几乎是均匀分布的。

这就是转换后的数据的样子。网络正是在这些数据上进行学习。

所以,数据云的分布是均匀的。但值得一提的是,有一些细微的差别不允许将这种预处理称为网络的最佳状态。

还值得注意的是,所有的转换都是可逆的,不会带来不准确的情况。

所有的方法(原则上)都已经在这个主题中讨论过了。

 
StatBars писал(а)>>

数据分布函数经转换后采用正弦波函数,输入数据和输出数据几乎均匀分布。

StatBars, 这个程序是自动的,还是你必须手动进行--调整sigmoid函数的系数?

 
Neutron писал(а)>>

StatBars, 这个程序是自动的,还是你必须手动进行--调整sigmoid函数的系数?

系数必须进行调整,到目前为止...但我计划将其自动化...我们的想法是,如果近似函数选择正确,它将是一个矩形。

我只用区域分布功能实现了自动对齐,但有许多 "滑溜溜 "的时刻,我不得不放弃它......。

 

是的--我也有同样的情况。

我需要问一下Prival,如何从一个任意的分布中以分析形式得到所需的分布(矩形)。

还有,为什么你用sigmoid作为FA,而不用双曲切?其优势是显而易见的...

 
Neutron писал(а)>>

还有,为什么你用sigmoid作为FA,而不是用双曲切线?其优势是显而易见的...

而且优点可以更详细。

 
是的,一个被对称函数激活的神经元的学习速度是两倍。此外,在学习过程中,一些权重的取值接近于零,这使它们关闭,也就是说,在一个具有双曲线FA的神经元中,"工作 "的突触的有效数量总是小于双曲线的。这不是好事,因为你仍然要来回拖动 "死 "的突触。
 
Neutron писал(а)>>
是的,一个被对称函数激活的神经元的学习速度是两倍。此外,在学习过程中,一些权重的取值接近于零,也就是说,具有正弦曲线的神经元的 "工作 "突触的有效数量总是小于双曲线的。这不是好事,因为你仍然要来回拖动 "死 "的突触。

仅仅是一个简单的转换,你也可以在sigmoid中得到一个从-1到1的值。这并不复杂。

 

是的,谁能反驳这一点呢?

只是,这是一个 "穿裤子,脱裤子 "的问题。

 
Neutron писал(а)>>

是的--我也有同样的情况。

我需要问一下Prival,如何从一个任意的分布中以分析形式得到所需的分布(矩形)。

还有,为什么你用sigmoid作为FA,而不用双曲切?优势毕竟是在表面上...

我只使用双曲切线。