Рекуррентные нейронные сети (англ. ; RNN) — вид нейронных сетей, в которых имеется обратная связь. При этом под обратной связью подразумевается связь от логически более удалённого элемента к менее удалённому. Наличие обратных связей позволяет запоминать и воспроизводить целые последовательности реакций на один стимул. С точки зрения...
也就是说,我们需要=RNN(a0,a1,a2,a3)。
我不明白RNN是指RNN,还是ReshetovNN(RNN),它不是RNN。
现在是关于一个,现在是关于另一个。我已经不明白在什么情况下。
我不明白是RNN 的RNN还是ReshetovNN(RNN),它不是RNN。
这是关于一个或另一个。我已经不明白在什么情况下。
从代码来看,没有字面意义上的内存。输入只是从指标中接收较早的条形数据,例如0、1、2、3条或0、2、4、8条或0、10、20、30条--随你选择。因此,记忆不是在NS本身,而是来自外部的来源
而这不再是一个RNN。RNN只具有反馈功能--具有递归功能。有人需要改名))。
而且,严格来说,它不是一个网络,是一个单一的神经元。
而这不再是RNN了。RNN只具有反馈功能--具有递归功能。有人需要改名))。
而且,严格来说,它不是一个网络,而是一个单一的神经元。
再加一个同类的,然后把这两个的输出反馈给第三个--你就有了)只有权重不能被优化,如果第一个神经元有100个输入,第二个有100个输入,而第三个有2个。
在这里,我们应该从训练指令中计算,而不是从所有202个 输入中计算。不要在优化器中计算平衡优化,而是使用例如1000个训练点并根据它们计算系数。
再加一个,然后把这两个的输出反馈给第三个--这就是网格)如果第一个神经元有100个输入,第二个有100个输入,第三个有2个,那么只有权重是不现实的。
因为RN3中存在一个错误 -
要求提供5个点的数据,你计算4个点的概率,你不从当前条形图a0开始,而是从周期的转移开始,即从a1开始。概率的计算不是针对当前时刻,而是针对a1点--因此对a0的结果是不好的))
// Преобразование показаний технического осциллятора RSI в диапазон от 0 до 1 включительно
double a0 = rsi[0] / 100.0;
double a1 = rsi[p] / 100.0;
double a2 = rsi[2*p] / 100.0;
double a3 = rsi[3*p] / 100.0;
double a4 = rsi[4*p] / 100.0;
// Вычисление вероятности
double results=RNN(a1,a2,a3,a4);
即=RNN(a0,a1,a2,a3)。
那么,为了计算5分,你也应该把对数矩阵增加到25条,即52 条。以此类推,如果需要更多的点/输入。如果有10个输入,意味着有100个输入变量)))))。我不知道MT5是否能够优化它?
不,那也是他的原件,我没有交易。
对于10个条目来说,即使通过云计算也已经很成问题了)但我会试着做3个这样的专家系统,输入4)如果开盘价 在很长一段时间内不被测试,那么就好了。
雷舍托夫有一个有趣的解决方案。类似的事情可能要做。只是从上下文来看,你往往不明白我们在谈论什么RNN。
这不是RNN,这是一个专家系统,他称之为...为什么叫RNN,我不知道,也许是通过姓:)
不,这也是他的原作,我没有交易。
对于10个条目来说,即使通过云计算也已经是个问题了)但我会试着做3个这样的专家系统,为第4个条目提交)如果开盘价 在很长一段时间内没有被测试,那就好了。
如果我们把它分成几帧,稍有重叠,会怎么样?我们得到2-3个部分重叠的EA,然后将它们合并。
作为一个选项,是的
在我看来,用这样的矩阵来计算只有3到5个输入的有利可图的东西是不现实的。我同意,它涵盖了所有可能的变化。
但是,如果我们做一个有5个输入的网络,就会有32个系数用于计算。遗传算法 通常在10000次中收敛,即输入将平均收敛为-1.0-1。
用3个输入也许可以计算出一个模式,但在我看来3个输入是不够的。
虽然神经网络可以在R上甚至从ALGLIB上建立,并快速计算。它们的内部结构不会那么完整,但在训练中会发现最强的依赖关系。