Класс CNetPNN реализует вероятностную нейронную сеть (Probabilistic Neural Network - PNN). Создание сети объявляется параметрическим конструктором класса. Нумерация классов(целей классификации) начинается с нуля и должна быть непрерывна. Например, если задано 3 класса, то номера классов должны быть: 0, 1, 2. Обучение сети осуществляется вызовом...
实际上,所有的东西都必须用C++/C#编写,与任何东西互动都没有问题。问题是,DM的主要库是Python和R,这至少是需要掌握的。而且互动也没什么,到处都有API(除了MQL)。你至少可以通过RAM-磁盘传输文件。
是的,这是正确的,这没有问题。
问题是你需要在MO扎下多深的根,在哪个阶段明白这些模式已经足够了......
我现在已经确定了经典,一切对我来说都足够了......我并不追求1-10%的准确率:)现在我专注于策略,很多想法已经写出来了--我需要测试这一切,这很难。
我正在研究PNN的细节--他们用概率值工作,不怎么重新训练。
尤拉,你真的很了不起!))在MQL论坛上这样说话。现在你的同志们会跑过来,向你扔石头。
我也只用MQL来开仓/平仓订单。所有的计算都在Wissima中进行。这是唯一一个我们有或多或少的专业物理学家和数学家的论坛,这就是我在这里的原因。在其他的网站上,他们只是村里的白痴。
亚历山大,你可能对这个话题感兴趣 :)
通过核函数近似概率密度函数的方法与径向基函数方法非常相似,因此我们自然而然地得出了概率神经网络(PNN)和广义回归神经网络(GRNN) 的概念(Speckt 1990, 1991)。PNN是为分类任务设计 的,GRNN是 为回归任务 设计的。这两种类型的网络是内核逼近方法的实现, 被框定 为神经网络。
亚历山大,你可能对这个话题感兴趣 :)
通过核函数近似概率密度函数的方法与径向基函数方法非常相似,因此我们自然而然地得出了概率神经网络(PNN)和广义回归神经网络(GRNN) 的概念(Speckt 1990, 1991)。PNNNs用于分类任务,GRNNs用于回归任务。这两类网络是内核逼近方法的实现,被设计 成神经网络。
是的。谢谢你,马克西姆!
但是,我们必须记住--读得多的人,会变得不适合自己思考。(c)而且我没有这么说。猜猜是谁?)
也有这样的意见。
人们在停止阅读时就停止了思考。 狄德罗
Maxim其实很好。有时我对他的前景感到惊讶。但你必须记住--经常阅读的人脱离了习惯,会自己思考。猜猜是谁?)
也有这样的意见。
人们在停止阅读时就停止了思考。 狄德罗
我同意。但这个链接很有意思--我有时间就会读。我现在很忙--我看到地平线上的圣杯,在我岳父有力的双手推动下,我向它前进。
寻找,你们就会找到。(с)
但这次不是。
马克西姆实际上是非常好的。有时我对他的观点感到惊讶。但请记住--经常阅读的人脱离了习惯,会自己思考。猜猜是谁?)
是的,我只是翻阅了各种文章,看看在这个问题上有什么有趣的东西 :)那么,与MLP相比,我的理解是,主要的优势是速度和最小设置(这里根本没有),而且这些网格几乎不需要重新训练。
好了,高斯的F力被用来代替stydent的。对于每个输入,创建一个顶点密度fie,然后对输出的结果进行线性求和。
顺便说一下,PNN和GRNN都有mql格式,但我还没有试过,也没有和MLP比较过。
https://www.mql5.com/ru/code/1323