金融系列的神经预测(基于一篇文章)。 - 页 7

 
Vizard:

这是个黑盒子...

这是肯定的......哟,它本来或多或少是稳定的,但它不是....。.....
 
例如,告诉LeoV))。
 
那么,列奥尼德呢,他正在努力选择一种或另一种训练。当然,他在NS中的成绩令人印象深刻,所以他与stev wards在一起的时间不长....。在我看来,所有破碎的NS都涉及某种不稳定机制。在任何情况下,当试图训练他的图表时,我得到了一个完全不同的结果,尽管他的考特是一样的。不同的是,他有一个合法的NS,而我没有!!!!。
 
nikelodeon:


基本上,无论你想怎么称呼它...


明白了。这就像思考 "像昨天一样",而不是像现在。
 
Integer:

明白了。就像它想的是昨天的事,而不是现在的事。

一个神经网络按照它被教导的方式思考。而且你可以教它任何东西,包括:2 x 2 = 5。

我们正在建立一个有两个输入的网格。教导乘法表,其中,除了输入的2在输出时得到5,其他都是正确的。经过训练,我们得到一个2×2=5的神经网络。

 
Reshetov:

一个神经网络按照它被教导的方式思考。而且你可以教它任何东西,包括:2 x 2 = 5

这不是网络如何运作的问题,而是 "像昨天一样 "这句话在网络方面的含义。

 
而如果你给一个神经网络一个英文字母的符号序列,例如,来自莎士比亚的作品,并在输出端给出下一个符号(当然是它的编号),那么这个网络就会学会以概率方式产生下一个符号。在英语中,与俄语一样,字母的顺序也有规律可循。
 
Integer:

这不是网络如何运作的问题,而是 "像昨天一样 "这句话在网络方面的含义。

昨天你教网友在趋势上交易,今天它成功地在横盘上暴跌。这并不罕见。而且你不可能把所有的东西都教给网友,比如说预测干预、波动性的突然变化等等。
 
Reshetov:
昨天你教网格员在趋势上进行交易,今天却成功地在横盘上抛出。这并不罕见。而且你不可能把所有的东西都教给网友,比如如何预测干预、波动性的突然变化,等等。

为什么呢,只是这种情况下的信号会是随机的。如果它是正确的.....,这只是运气,让我们说。但要在优化过程中找到那些在未来会起作用的参数,肯定是很难的....,找到它们并不难,难的是选择它们.....。
 
nikelodeon:

为什么不呢,信号将只是随机的。

只在趋势部分训练的神经网络的信号不会是随机的,而是网络的训练 方式。也就是说,它将跟随运动并从侧面倾倒。