交易中的机器学习:理论、模型、实践和算法交易 - 页 500

 
马克西姆-德米特里耶夫斯基

对不起,但到目前为止,你还没有在我的任何问题中证明你的价值,至少我还没有看到。

而且,像 "显而易见的船长 "那样写作,把一切都颠倒过来,让自己看起来又有一点重要的意义,是没有任何意义的。


你混淆了基本的东西。学习--你需要学习,为了你自己好。 学习而不是回击......


ǞǞǞ

而且我不需要向你证明什么。

 
Oleg avtomat:

你对基本知识感到困惑。学习--你需要学习,为了你自己好。 学习而不是回击......


.

我也没有必要向你证明什么。


另一个出...而不是回答你是否能从脚手架上推断的简单问题 :D

我举了一个明确的例子:没有。我被争论过,但没人能解释,现在我得去看书了,因为没人知道什么 :)

对于那些对MO非常了解的人来说,这是一个非常简单的问题,但事实证明,没有人知道。

当然,每个人都是愚蠢的,特别是在hubra上,每个人都在写文章,显然Leo Brayman也是愚蠢的。

 
马克西姆-德米特里耶夫斯基

另一个最高...而不是回答脚手架是否能够推断的简单问题 :D

我举了一个明确的例子:没有。我一直在争论,但没有人能够解释,现在我不得不去看书,因为没有人知道狗屎:)

对于那些对MO了解很多的人来说,这是一个非常简单的问题,但事实证明没有人知道。


如果你提出这样的问题,你就已经表明了你的理解和认识水平。

 
Oleg avtomat:

如果你这样提出问题,你就已经表明了你的理解和认识水平。


所有,再见 )

 
马克西姆-德米特里耶夫斯基

那就再见吧)。


干杯,学习。

 
交易员博士

几乎是正确的,也有一个偏见,它被额外添加到结果中

最有可能的是y1、y2、y3的值被用于内部神经元层,而这些值本身也应该被用作下一层的输入值

或者,如果Y1,Y2,Y3是输出值,那么就用几个输出神经元进行分类--例如,如果Y1,Y2,Y3中最大的值是Y1,那么结果就是 "1类",如果最大的值是Y2,那么结果就是 "2类",如果最大的值是Y3,那么结果就是 "3类"。如果神经元将被用于回归而不是分类,那么输出神经元将只有一个。如果我们有两个类,我们可以只使用一个输出神经元(如果结果是<0.5,那么它将是Class1,如果>=0.5,那么它将是Class2)。

为神经元的激活函数添加一个sigmoid是非常容易的,你需要这样一个函数

而有了它,你已经有了一个成熟的神经元,有一个内层(有三个感知器)和一个输出感知器。

结果 = Perceptron4[0]


谢谢你的答复这对我来说是相当有帮助的。

我认为它是一个偏向性神经元?说明中说,当输入为零时,它有帮助。在你看来,偏见神经元是用来做什么的,应该为它选择什么样的权重?基本上它只是一个重量。

在sigmoid变换之后或之后检查阈值的最佳方法是什么?

 
交易员博士

一个神经元的权重数量可以是几万个或更多。在mql和R中,有专门的bibiloteks用于创建和训练神经元,最好使用它们,而不是从头开始编程自己的神经元。


我的意思是,例如在mql4中,可以同时优化多达15个参数,而在mql5中则更多。

而且似乎是调整了一层,然后用优化后的第一层调整第二层,等等。但如果我们能一次性优化所有的层就好了,但计算能力不允许我们这样做。

我有一个推测,当图层被逐一优化时,在这种情况下,一些模式没有被系统看到。

即使一个层被解析了,接下来的层也将基于第一层的假设。

 
马克西姆-德米特里耶夫斯基

另一个最高...而不是回答森林是否有能力推断的简单问题 :D


另一个高...而不是回答一个简单的问题--森林是否可以推断 :D

你还可以问一个问题:随机森林是甜的还是咸的? 一般来说,你可以问一堆愚蠢的问题,甚至在互联网上挑选参考资料。


如果有几个受过系统教育的论坛成员在这个问题上不糊涂,人们就不必回答。


随机森林不能推断,因为EXTRAPOLATION这个词根本就不适用于它们。随机森林和其他机器学习模型一样,可以预测未来的数值,但它不是EXTRAPOLATION,事实上EXTRAPOLATION这个词在统计学中根本就不适用。


原因就在这里。

最初,EXTRAPOLATION一词是指函数,有公式的普通函数。

比如说。

у = а+ bх

根据这个公式,你可以计算一个函数在原始定义领域内的值(内插法)和外推法。


统计学中没有这样的公式。

而这整个 "随机森林能否推断 "的事情与此有关,因为在统计学中,类似物看起来像。

у ~ а + bх

为了区分线性函数和线性回归,使用tilde而不是等号。

这种区别抓住了一个事实,即,线性方程中的'a'不是线性回归中的'a',正如tilde所表示的。这同样适用于 "b"。

在第一个方程中,"a "是一个常数,而在第二个方程中,"a "是数学期望值,它伴随着一个方差值和一个带有我们看到的 "a "的那个值不存在的无效假设的概率的估计。如果这个不存在的概率超过10%,那么 "a "的值就可以不考虑了。


现在回答你的问题。

- 我们可以从回归方程中推断吗?

- 不,你不能。但你可以预测一个随机变量的未来值,它将在一个置信区间内 取值。如果这个置信区间是95%(无效假设下5%的概率),那么我们在这个置信区间内得到 "y"。而如果你得到的 "a "的估计值是该值的方差倍数,你根本无法预测任何东西。


我希望我详细解释了你这个在函数存在下有意义的问题,在统计学中根本就没有意义。

 
桑桑尼茨-弗门科


现在回答你的问题。

- 你能根据回归方程进行推断吗?

- 不,你不能。但是,预测一个随机变量的未来值是可能的,它将在置信区间 内取值。如果这个置信区间是95%(无效假设下5%的概率),那么我们在这个置信区间内得到 "y"。如果你得到的 "a "的估计值是该值的方差倍数,你根本无法预测任何东西。


现在,请注意,没有这样的问题......。)

有一个问题,比如说

交易员博士

外推法意味着要预测训练期间已知的预测器数值以外的新数据。

我想补充的是,不是预测者,而是目标,因为如果是预测者,那么我们处理的是内插法而不是外推法。

所以,随机森林可以插值(它甚至不需要对输入进行归一化),但它不能推断。

统计学,它是将过去既定的趋势延伸到未来的时期(时间上的外推法用于预期的人口估计);将样本数据外推到另一部分未被观察到的人口(空间上的外推法)

如果你拿一棵回归树来说,它将无法将其结果传播到新的数据上,例如传播到1.4500以上的报价上,它将永远给出1.4500的预测,但绝不会超过也不会低于1.3000,因为它是在1.3000-14500的样本上训练的,例如(作为目标),这来自决策树的原理。

与树不同,线性回归和神经网络可以很容易地做到这一点,因为它们是根据不同的原则建立的。

再一次:训练区间之外的新数据可以被输入到新的射频样本上的输入,它可以完美地插值。但在输出端,它不会外推,也就是说,预测值永远不会超出它所训练的输出区间。

 
马克西姆-德米特里耶夫斯基

现在,请注意,没有这样的问题......。)

有一个问题,比如说,指出了

交易员博士

外推法意味着对新数据的预测超出了训练期间已知的预测器的值。

我想补充的是,不是预测者,而是目标,因为如果是预测者,那么我们处理的是内插法而不是外推法。

所以,随机森林可以插值(它甚至不需要对输入进行归一化),但它不能推断。

统计学,它是将过去既定的趋势延伸到未来的时期(时间上的外推法用于预期的人口估计);将样本数据外推到另一部分未被观察到的人口(空间上的外推法)

如果你拿一棵回归树来说,它将无法将其结果传播到新的数据上,例如传播到1.4500以上的报价上,它将永远给出1.4500的预测,但绝不会超过也不会低于1.3000,因为它是在1.3000-14500的样本上训练的,例如(作为目标),这来自决策树的原理。

与树不同,线性回归和神经网络可以很容易地做到这一点,因为它们是根据不同的原则建立的。

再一次:训练区间之外的新数据可以被输入到新的射频样本上的输入,它可以完美地插值。但在输出端,它不会外推,也就是说,预测值永远不会超出它所训练的输出区间。


你对我的帖子一无所知。根本就没有。


因为你的存在,对帖子感到抱歉。