交易中的机器学习:理论、模型、实践和算法交易 - 页 550

 
马克西姆-德米特里耶夫斯基

嗯,是的,这些不是现成的计量经济学模型,而只是一套对所有领域都通用的工具。

非参数计量经济学 只是关于IR和模糊逻辑,但我还没有看到任何连贯的东西,也许是因为没有研究出一般的方法。我不知道它是如何运作的 :)

马克西姆,我恐怕会投以异样的眼光,但在我看来--神经网络并不像我在文章中读到的那样适用。你在处理价格本身,尽管将其归一化,而你必须处理价格的概率密度。这里存在着与海森堡不确定性原理的不可消除的矛盾。但是,我不会干涉--它仍然是有趣的。
[删除]  
亚历山大_K2
我很害怕可能发生的事情,马克西姆,但在我看来--神经网络并不适用我在文章中读到的方式。你正在处理价格本身,尽管将其归一化,而你应该处理价格的概率密度。这里存在着与海森堡不确定性原理的不可消除的矛盾。但是,我不会干涉--它仍然是有趣的。

你不干涉,写你想写的东西--这是一个公共论坛。对你的分配也是如此,我们会得到的,不是一下子就能得到的,只要有一些 "不可描述 "的想法 :D

我进入舞蹈只是因为我必须通过Python或R来获得LR和RF的功能的重要性,然后我得意忘形,开始进一步探索

我在NS中有一个机器人,考虑到市场的变化,我必须定期为其提供 "良好的功能",但除此之外,它运行良好。

[删除]  
马克西姆-德米特里耶夫斯基

你不干涉,写你想写的东西--这是一个公共论坛。对你的分配,我们也会得到,不是一下子就能得到的,只要有一些 "不可描述 "的想法 :D

我进入舞蹈只是因为我必须通过Python或R来获得LR和RF的功能的重要性,然后我得意忘形,开始进一步探索

如果我有一个机器人在NS,我应该定期给它提供自动的 "好迹象",考虑到不断变化的市场,但除此之外,它工作得很好。


马克西姆,你的专家顾问怎么了?你在哪里可以找到这些测试?

 

https://github.com/RandomKori/Py36MT5 这里是MT5的Python库的来源。唯一的问题是关于数组。传递数组或接收数组都不能正确工作。我在Visual Studio中调试了DLL代码。那里的一切都很好。问题是,这可能是一个终端错误。我还没有写如何与图书馆合作。这里面没有任何意义。没有数组就没有人需要它。虽然可能在pythom.mqh文件中搞砸了,但帮我弄清楚。它将对每个人都有用处。

 

真正的数组可以正常工作。阵列长阵列不起作用。

 

替换了内部的长。现在一切都正常了。该图书馆可以使用。只写关于使用的评论。

[删除]  
geratdc:

马克西姆,你的EA是怎么了?我在哪里可以看到这些测试,还是所有的东西都是机密?


我正在变得越来越好......但很慢,因为这个问题很复杂。

[删除]  

关于如何为市场建立一个模型的一些观察/想法(来自经验)。

对于神经网络分类器:类平衡是强制性的,2个或更多类的例子数量必须平衡。如果模型是在一个趋势段上训练的,就可以镜像信号并增加相反的例子。同时,标志必须与目标不相关,这一点很清楚。

对于神经网络回归者:至少有一个指标必须与目标强烈 相关,特别是当模型在输出价格上训练时。如果不这样做,那么回归因子就会在树中迷失,如果样本中包含重复或类似的例子,但输出价格不同,就无法正确预测价格。为此,除了其他特征外,你可以提供具有大滞后(超过50)的归一化增量。 训练的样本越大,需要更大的滞后来排除重复的变体。最好还能提供几个这样的系列,其增量相互移位,那么每个单独的案例几乎都能得到明确的解释。

对于作为分类器的随机森林:与NS相同。

对于随机森林作为回归者:几乎是无用的,与NS相同,但不可能在输出时给出价格(因为森林不会推断),如果我们为这些目的给出增量,森林会混在3棵松树中,因为会有许多重叠的例子。

 
马克西姆-德米特里耶夫斯基

关于如何为市场建立一个模型的一些观察/想法(来自经验)。

对于神经网络分类器:类平衡是强制性的,2个或更多类的例子数量必须平衡。如果模型是在一个趋势段上训练的,就可以镜像信号并增加相反的例子。在 这种情况下,信号必须与目标信号不相关,这是可以理解的



正好相反的意见。我有证据,一直到工作上的真实。有一点我很清楚,在咖啡渣和土星环上建立分类是不可能的,绝不可能--这就是萨满教。只有当你清除了输入的预测因子的噪音,只留下那些与目标变量相关的预测因子时,样本外模型才能得到与样本内大致相同的结果。此外,我有一个清理噪音的算法,其余预测器的计算结果给出了边际误差,将对这组预测器进行分类。

[删除]  
桑桑尼茨-弗门科

事实恰恰相反。我有证据,就在现实世界的工作中。对我来说,有一点很清楚,基于咖啡渣和土星环的分类,永远不可能由萨满教来完成。只有当你清除了输入的预测因子的噪音,只留下那些与目标变量相关的预测因子时,样本外模型才能得到与样本内大致相同的结果。此外,我有一个清理噪音的算法,剩下的预测器的计算结果给出了该组预测器的分类的边际误差。


这个问题对我来说并不明显,如果我们得到一个非线性分类器......什么应该与什么相关?)如果我们有分类特征,那么回归就完全不起作用,但分类却可以。

但对于回归来说,它是合理的