"新神经 "是MetaTrader 5平台的一个开源神经网络引擎项目。

 

问候。

在此,我提议概述一下该项目的 目的和目标。讨论细节和细微差别。

不客气!

 
TheXpert

首先要做的是为项目设立一个新的、简单的论坛。

我认为我们需要在sorsforge上做一个项目,并将讨论直接转移到那里。

首先要做的是集思广益,我们需要一个想法的数据库,无论多么超现实,而论坛的主题(由于其开放性)是最好的方式。

每个人都可能冲进论坛,甚至非专业人士。风暴建议最好用颜色从文本的其他部分突出出来。

例如:做一个图形引擎来创建一个网格,在启动引擎之前,设置层数,然后按神经元的数量为每一层设置输入窗口,然后由用户添加的趋势线定义连接

 
TheXpert

安德烈,你介意我们把这个主题做成一个头脑风暴会议吗?

我当然知道。这就是这个主题的意义。
 

攻击的主题。

--项目 的类型(用户与项目互动的方式)

-- 将在项目中实施的网络

-- 预处理和所有涉及的内容

-- 架构、界面

-- 实施,连接。

-- 测试、调试。

禁止:批评任何,即使是最妄想的想法,也要忽悠。能力的高低并不重要。如果你有兴趣,有想法,那就说出来 吧!

我们欢迎:提出新的想法,发展已有的想法。

 
TheXpert
...

也许我应该补充。

-- 后期处理

在我看来,应该特别注意各个模块的接口,期待可扩展性(连接/断开不同的信号,创建网络委员会的能力,等等)。因此,需要将网络本身(网络本身,例如具有两个隐藏层的MLP只需要几十行,例子在阿塔查)与学习算法分开。

附加的文件:
F_MLP.mqh  5 kb
 

向量的规范化,输入和输出数据的可视化。

使用外部构造器Neurosolutions,使用DLL与Neurosolutions,niterface ...

上传-卸载数据的接口:向量、权重。

EDNA进化设计网络结构

选择-定制激活函数、学习算法的能力。

 
njel
可能其中的一个筹码是,不会有dlloc。
 

...它看起来像这样。

项目类型:类库。

1) 互动的方法--在其系统的代码中使用(广泛记录的)API

我认为图书馆的实际应用将是。

  1. 快速编写自己的实用程序(我该怎么称呼它)--指定所需的网络类型,形成其配置,规定我们要给它提供什么(训练样本),等等。
    每个这样的实用程序都可以作为一个单独的应用程序,并带有输入参数。在测试器中运行它,得到一个训练好的网络文件(FILE_COMMON)。

  2. 如何编写可能使用训练网文件的EA?

2)第二种互动方式。GUI应用程序,以简化网络创建/培训工具的创建--至于类型参数等很简单。但不同类型有不同的设置?+ 如何在用户界面中设置向网络提供什么?是否有可能在元编辑器中嵌入创建网络生成工具模板,像神经网络创建向导一样?输 出是完成的代码,你唯一需要指定的是什么被送入网络的输入?


P.S. 上面Joo 建议使用 "期望可扩展的单个模块的接口",它们只需要根据向导在元编辑器中生成,学习算法就应该完成了。

 
joo:

这里我建议概述项目的目的和目标。讨论细节和细微差别。

如果我没有理解错的话,这个想法是类似于FANN的,只是范围更广,更普遍?甚至知道如何评估这样一个怪物的前景,它是如此巨大的一层无边无际)如此多的细节和细微差别。即使是在joo 发布的那一小段代码中 也没有做到没有锐化到一个特定的实现(激活函数中的数字7很可能是来自这个作品)。神经网络完全由这种细节组成。带着兴趣,我将关注这个项目,并尽量不妨碍它,但到目前为止,我还不知道--原则上由几个热心人来做是否可行....。

 

模块化的神经网络

有可能增加部分训练大型网络的能力,实际上就是委员会训练,但没有将网络合并成一个系统的问题。
Модулярні нейронні мережі — Вікіпедія
  • uk.wikipedia.org
Модулярна нейронна мережа (англ. ) — група нейронних мереж (які в даному випадку називаються модулями), що керуються певним посередником. Кожна нейронна мережа слугує модулем і оперує окремими входами для вирішення певних підзавдань із групи завдань, які повинна виконати модулярна нейронна мережа. [1] Посередник приймає вихідні сигнали кожного...
 
费加0

如果我没有理解错的话,这个想法是类似于FANN的,只是更广泛和更普遍?

更加'广泛'和'一般'。:)

否则何必呢?

费加0

如此多的细节和细微差别。即使是在joo 发布的那一小段代码中 也没有做到没有锐化到一个特定的实现(激活函数中的数字7很可能是来自这个作品)。神经网络完全由这种部分组成。

这正是没有的地方。激活函数中的数字7是比例系数,因此,sigmoid曲率图落在[-1.0;1.0]范围。

我进一步建议所有网格类型的输入和输出都使用这个范围,以避免混淆并确保相同的界面。这就是为什么我把7放在那里--期待我未来的设计。

然而,这个系数可以形成一个变量,那么它就有可能在所有具有FA的神经元中调整sigmoid的曲率(从逻辑切换,到简单的线性缩放,包括一个具有非线性S-变换的中间部分)