交易中的机器学习:理论、模型、实践和算法交易 - 页 1204

 
马克西姆-德米特里耶夫斯基

解决方案是找到最佳权重......例如,如何改变后验......从均匀到指数的变化

我不是黑匣子模型的拥护者。最好是一切都透明,有一个简单的 "物理 "意义。

例如--我们用大量的历史数据计算修正成为反转的先验概率,然后根据时间或趋势特征,对后验中的每一个特定修正重新计算。

[删除]  
阿列克谢-尼古拉耶夫

我不赞成黑箱模式。如果一切都透明,有简单的 "物理 "意义,那就更好了。

例如--我们从大量的历史数据中计算出修正成为反转的先验概率,然后根据时间或趋势特征,在后验概率中对每个具体的修正重新计算。

遗憾的是,外汇法则的简单物理意义我们并不清楚。

 
马克西姆-德米特里耶夫斯基

遗憾的是,我们不知道外汇模式的简单物理含义。

这是关于模型的可解释性。

[删除]  
阿列克谢-尼古拉耶夫

这是关于模型的可解释性。

那么这就不是关于MO :) 尽管元模型很容易通过它们的度量进行解释。

 
马克西姆-德米特里耶夫斯基

那么你就不是在MO主题中 :) 尽管元模型很容易通过其度量来解释

我认为,这个问题与国防部区分猫和狗的问题是一样的。

[删除]  
伊戈尔-马卡努

在我看来,这与国防部区分猫和狗是一样的。

因为在我看来,这就像说不同的语言......

当然要用标志来区分......它们是法语
 
马克西姆-德米特里耶夫斯基

那么你就脱离了MO :) 尽管元模型可以很容易地通过它们的度量进行解释

我不确定这是否总是容易的,但不知何故,它可以做到。我想这不是神经网络本身,而是其简化的近似值,应该直接做交易。

没有MO的方法(你可以称之为 "巧妙的探索性分析"),在我们的案例中不能没有)。

[删除]  
阿列克谢-尼古拉耶夫

我不确定这是否总是容易的,但不知何故,它可以做到。我想应该不是神经网络本身直接做交易,而是其简化的近似值。

如果没有MO方法(你可以称之为 "智能探索性分析"),我们就无法做到这一点)

现在我想把信号对分布的依赖性加入到优化的参数中,我一开始就这样做了,想看看

     double arr[];
     CopyClose(_Symbol,0,0,100,arr);
     double kurt = MathKurtosis(arr);
     double skew = MathSkewness(arr); 
     if(kurt > 2.0) if(rand()/32767.0<0.5) res = 0; else res = 1;
     else {
      if(skew >0) if(rand()/32767.0>prob_shift) res = 0; else res = 1;
      if(skew <0) if(rand()/32767.0<prob_shift) res = 0; else res = 1;

如果峰度高于某个值(你可以选择它),则观察到平坦的情况,你可以以相同的概率买入/卖出(然后修复所有的错误)。

进一步的不对称性,如果有某一方,那么买入或卖出的信号的概率就会转移

这是一个原始的,但它大约是优化器可以选择目标的方式

你需要从度量衡中得到的是测试样本上的分类误差(要在训练样本上进行训练)。超参数在优化器中被列举出来,并选择误差最小的模型。这里有什么是不可解释的呢? 你只需要通过观察测试数据上的误差来知道这样的模型是否可以归纳。

我刚刚举了一个例子,就是这样的一个废品


 
马克西姆-德米特里耶夫斯基

现在我想把信号对分布的依赖性加入到要优化的参数中,我一开始就这样做了,看看

事实证明,有一种依赖性...

我对回归者进行了 "SMM"(隐马尔科夫模型)的训练,将其分为10个状态,在没有老师的情况下进行训练,它自己分裂出不同的分布。


状态分布。


在这里,我将回报按州分组,即每一行是一个独立的市场状态。

一些州(1,4,6,8,9)的观察值太少,所以根本无法考虑到它们

而现在我将尝试再生系列,也就是做一个累积的总和,如果在某些状态中发现一些趋势--方向上的规律性

我做了一个累积性的总结。

5号和7号的结构是一致的,5号代表白,7号代表村。

 
马克西姆-德米特里耶夫斯基

现在我想在优化的参数中加入信号对分布的依赖性,我在开始时已经做了,看看

如果峰度高于某个值(我们可以选择它),那么我们就有一个平坦的情况,有可能以相同的概率买入/卖出(然后修复所有错误的)。

在不对称性方面,如果有某一方,那么买入或卖出的信号的概率就会发生变化。

这是一个原始的,但这是在优化器中选择目标的方法。

为什么是价格而不是其增量?