贝叶斯回归 - 有没有人用这种算法做了一个EA? - 页 28 1...212223242526272829303132333435...55 新评论 Yuri Evseenkov 2016.02.24 07:44 #271 关于该分支的主题:贝叶斯,mql贝叶斯公式线性依赖y=ax+b。正态分布的公式。(原则上,你可以采取不同的分布)。让我们重写一下这个公式P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y);(1)。接下来,根据我的理解,你需要列举出a和b的所有可能组合。根据公式(1),那些给出最大概率的a和b将成为系数。 Dmitry Fedoseev 2016.02.24 09:19 #272 Yuri Evseenkov:关于该分支的主题:贝叶斯,mql贝叶斯公式线性依赖y=ax+b。正态分布的公式。(原则上,你可以采取不同的分布)。让我们重写一下这个公式P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y);(1)。接下来,根据我的理解,你需要列举出a和b的所有可能组合。根据公式(1),那些给出最大概率的a和b将成为系数。 有一些人怀疑情况并非如此。 Yuri Evseenkov 2016.02.24 10:16 #273 Dmitry Fedoseev: 有一些人怀疑情况根本不是这样。 请分享你的猜测。 Dmitry Fedoseev 2016.02.24 10:36 #274 Yuri Evseenkov: 请分享你的猜测。 没有。如果我确定的话,我会把它放在代码中,但你可以无休止地唠叨下去。这条线上有这样的巨无霸,让他们在实践中展示他们的口才吧。 Yuri Evseenkov 2016.02.24 10:55 #275 Dmitry Fedoseev: 没有。如果我确定的话,我会在代码中表示出来,但你可以无休止地唠叨下去。这条线上有这样的巨无霸,让他们在实践中展示他们的口才吧。 遗憾的是。在这个问题上,你是最具体的。而非顶层的有能力的同志对我来说非常有趣,但我害怕在 "森林 "里迷路。 Vladimir 2016.02.25 02:35 #276 Yuri Evseenkov:关于该分支的主题:贝叶斯,mql贝叶斯公式线性依赖y=ax+b。正态分布的公式。(原则上,你可以采取不同的分布)。让我们重写一下这个公式P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y);(1)。接下来,根据我的理解,你需要列举出a和b的所有可能组合。根据公式(1),那些给出最大概率的a和b将成为系数。你的思考方向似乎是正确的。我已经忘记了,但解释是这样的。假设我们有一个时间序列(价格,如果你喜欢),Y = {y[1], y[2], ..., y[n]}。我们还有未知的模型参数W={w[1], w[2], ...。, w[m]}。假设模型是回归的,也就是y[i] = SUM_j w[j]*f(X) + e[i] 。其中f()是一个近似函数(例如多项式),X是输入数据,e[]是一个误差。让我们用最大似然定理来寻找模型W的参数。W = argmax ln(P(W|Y))现在应用贝叶斯定理。p(w|y) = p(y|w)*p(w)/p(y)除以P(Y)是一个可以忽略不计的归一化。我们得到(1) W = argmax {ln(P(W|Y))} ~ argmax {ln(P(Y|W)) + ln(P(W)) } ~ argmin {-ln(P(Y|W))- ln(P(W))}P(Y|W),即在参数W下X的概率,可以计算如下。P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)如果误差具有正态分布且相互独立,那么(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))将(2)代入(1),得到W ~ argmin {-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))P(W)通常为1,我们可以拿出拉普拉斯分布。P(W) ~ exp(-lambda*||W||_1)我们得到W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W||_1结果,将最大似然法和贝叶斯定理应用于我们的高斯误差的序列回归,导致有或没有调整项lambda*的最小二乘法。或没有。数学是复杂的,但结果是简单的。如果你不喜欢正态误差分布,就用另一个分布来代替它,例如拉普拉斯分布,你会得到。W ~ argmin SUM|e[i]| + lambda*||W||_1。你也可以用一个超级高斯函数来代替,所以你会得到W ~ argmin SUM|e[i]|^p + lambda*||W|_1顺便说一下,这里写的调节性加法将最小二乘法变成了放空编码法。没有它,它就是一个经典的线性回归,通过微分W和等效为零来解决。 Bayesian regression - Has Big Expert Advisor example 用 MQL5 表示统计概率分布 Alexey Burnakov 2016.02.25 08:42 #277 Vladimir:你的思考方向似乎是正确的。我开始忘记了,但这里有解释。假设我们有一个时间序列(价格,如果你喜欢),Y = {y[1], y[2], ..., y[n]}。我们还有未知的模型参数W={w[1], w[2], ...。, w[m]}。假设模型是回归的,也就是y[i] = SUM_j w[j]*f(X) + e[i] 。其中f()是一个近似函数(例如多项式),X是输入数据,e[]是一个误差。让我们用最大似然定理来寻找模型W的参数。W = argmax ln(P(W|Y))现在应用贝叶斯定理。p(w|y) = p(y|w)*p(w)/p(y)除以P(Y)是一个可以忽略不计的归一化。我们得到(1) W = argmax {ln(P(W|Y))} ~ argmax {ln(P(Y|W)) + ln(P(W)) } ~ argmin {-ln(P(Y|W))- ln(P(W))}P(Y|W),即在参数W下X的概率,可以计算如下。P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)如果误差具有正态分布且相互独立,那么(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))将(2)代入(1),得到W ~ argmin {-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))P(W)通常为1,我们可以拿出拉普拉斯分布。P(W) ~ exp(-lambda*||W||_1)我们得到W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W||_1结果,将最大似然法和贝叶斯定理应用于我们的高斯误差的序列回归,导致有或没有调整项lambda*的最小二乘法。或没有。数学是复杂的,但结果是简单的。如果你不喜欢正态误差分布,就用另一个分布来代替它,例如拉普拉斯分布,你会得到。W ~ argmin SUM|e[i]| + lambda*||W||_1。你也可以用一个超级高斯函数来代替,所以你会得到W ~ argmin SUM|e[i]|^p + lambda*||W|_1顺便说一下,这里写的调节性加法将最小二乘法变成了放空编码法。如果没有它,它就是一个经典的线性回归,通过对W进行微分并等效为零来解决。 谢谢你! Yuri Evseenkov 2016.02.25 14:18 #278 Vladimir:你的思考方向似乎是正确的。我开始忘记了,但这里有解释。假设我们有一个时间序列(价格,如果你喜欢),Y = {y[1], y[2], ..., y[n]}。我们还有未知的模型参数W={w[1], w[2], ...。, w[m]}。假设模型是回归的,也就是y[i] = SUM_j w[j]*f(X) + e[i] 。其中f()是一个近似函数(例如多项式),X是输入数据,e[]是一个误差。让我们用最大似然定理来寻找模型W的参数。W = argmax ln(P(W|Y))现在应用贝叶斯定理。p(w|y) = p(y|w)*p(w)/p(y)除以P(Y)是一个可以忽略不计的归一化。我们得到(1) W = argmax {ln(P(W|Y))} ~ argmax {ln(P(Y|W)) + ln(P(W)) } ~ argmin {-ln(P(Y|W))- ln(P(W))}P(Y|W),即在参数W下X的概率,可以计算如下。P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)如果误差具有正态分布且相互独立,那么(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))将(2)代入(1),得到W ~ argmin {-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))P(W)通常为1,我们可以拿出拉普拉斯分布。P(W) ~ exp(-lambda*||W||_1)我们得到W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W||_1结果,将最大似然法和贝叶斯定理应用于我们的高斯误差序列的回归,导致了一种最小二乘法,其支配和值为lambda*...或没有。数学是复杂的,但结果是简单的。如果你不喜欢正态误差分布,就用另一个分布来代替它,例如拉普拉斯分布,你会得到。W ~ argmin SUM|e[i]| + lambda*||W||_1。你也可以用一个超级高斯函数来代替,所以你会得到W ~ argmin SUM|e[i]|^p + lambda*||W|_1顺便说一下,这里写的调节性加法将最小二乘法变成了放空编码法。没有它,它就是一个经典的线性回归,通过W的微分和等价于零来解决。谢谢你的详细评论。关键字和公式都给了,我会研究的。"综上所述,将最大似然法和贝叶斯定理应用于我们具有高斯误差的系列回归中,可以得出带有lambda*调整项的最小二乘法......或没有。数学是曲折的,结果是简单的。"深信不疑。几乎。用不同的方法计算的直线y=ax+b的系数a和b在数值上或近似于相等,这一点仍然存在疑问。 在这里,你需要费力地比较两种方法的公式或编写一个程序。 主要的是公式、算法和代码本身要符合理论。该方案必须: -用最小二乘法计算线性回归y=ax+b的a和b的系数-获得a和b的系数,在应用数学期望值等于ax+b的正态分布时,贝叶斯定理的概率是最大的然后,我们需要比较这些系数,如果有相当大的差异,就根据这些a和b的动态,看看两条线的行为。例如,在可视化模式的策略测试器中。该程序可以进一步使用其他模型、回归、分布与贝叶斯公式。也许有些东西会拍得非常好。P.S 我想到了我最喜欢的例子。"你有可能已经使用了贝叶斯思维,尽管你并不知道。讨论我从尼尔-曼森那里学到的一个例子:你是一名战斗中的士兵,正躲在散兵坑里。你知道 一个事实:,战场上只剩下一名敌军士兵,大约在400 码之外。你也知道,如果是普通士兵,他不可能从那个 的距离击中你。然而,如果那名士兵是一名狙击手,他很有可能击中你。但敌军中没有多少狙击手,所以可能是一个普通士兵。你,把头抬出壕沟,试图更好地观察周围。砰!一颗子弹擦过你的头盔,你跌回散兵坑。很好,你想。我知道狙击手很罕见,但这家伙从四百 码处击中我。仍然有很大的机会是一个普通士兵,但它是一个狙击手的机会已经,因为他从这么远的距离打我。几分钟后,你,敢于再次向外看,把头抬到散兵坑上方。砰!第二颗子弹,擦过你的头盔。你又倒下了。哦,该死,你想。这绝对是一个狙击手。不管它们有多稀少,,但是,一般的士兵不可能在这个距离上连续击中两次。 这绝对是一个狙击手。我最好打电话请求支援。如果这是一个粗略的近似于你在 类似情况下的想法,那么恭喜你。你已经在像贝叶斯人那样思考了,至少有时候。"(作者不详)。 Alexey Burnakov 2016.02.25 16:13 #279 Yuri Evseenkov:-用最小二乘法计算线性回归y=ax+b的系数a和b-得到a和b的系数,在应用期望值等于ax+b的正态分布时,贝叶斯定理的概率是最大的他们将是平等的,非常接近。问题是,在应用于金融市场时,试图为系数设定一个先验分布是否有意义。我经常看到正则化应用于回归(L1、L2)。可能比序数线性回归 的效果更好。 Yuri Evseenkov 2016.02.25 20:47 #280 Alexey Burnakov:他们将是平等的,非常接近。问题是,试图为适用于金融市场的系数设定一个先验分布是否有意义。我经常看到正则化应用于回归(L1、L2)。可能比序数线性回归 的效果更好。我理解的系数a和b需要列举,以便根据贝叶斯公式P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y)找到给出最大概率的组合;(1)概率P(a)和P(b)将等于超调周期的步骤,是一个常值。它们的分布将是均匀的。P.S. 我坚持认为,真正的金融市场和外汇的性质有很大不同。外汇更像是一种赌博业务。一种多人的计算机在线模拟。因此,对于外汇来说,有可能适用这些领域的相关法律。例如,正态分布的规律。 1...212223242526272829303132333435...55 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
关于该分支的主题:贝叶斯,mql
贝叶斯公式
线性依赖y=ax+b。
正态分布的公式。(原则上,你可以采取不同的分布)。
让我们重写一下这个公式
P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y);(1)。
接下来,根据我的理解,你需要列举出a和b的所有可能组合。根据公式(1),那些给出最大概率的a和b将成为系数。
关于该分支的主题:贝叶斯,mql
贝叶斯公式
线性依赖y=ax+b。
正态分布的公式。(原则上,你可以采取不同的分布)。
让我们重写一下这个公式
P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y);(1)。
接下来,根据我的理解,你需要列举出a和b的所有可能组合。根据公式(1),那些给出最大概率的a和b将成为系数。
有一些人怀疑情况根本不是这样。
请分享你的猜测。
没有。如果我确定的话,我会在代码中表示出来,但你可以无休止地唠叨下去。这条线上有这样的巨无霸,让他们在实践中展示他们的口才吧。
关于该分支的主题:贝叶斯,mql
贝叶斯公式
线性依赖y=ax+b。
正态分布的公式。(原则上,你可以采取不同的分布)。
让我们重写一下这个公式
P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y);(1)。
接下来,根据我的理解,你需要列举出a和b的所有可能组合。根据公式(1),那些给出最大概率的a和b将成为系数。
你的思考方向似乎是正确的。我已经忘记了,但解释是这样的。
假设我们有一个时间序列(价格,如果你喜欢),Y = {y[1], y[2], ..., y[n]}。我们还有未知的模型参数W={w[1], w[2], ...。, w[m]}。假设模型是回归的,也就是
y[i] = SUM_j w[j]*f(X) + e[i] 。
其中f()是一个近似函数(例如多项式),X是输入数据,e[]是一个误差。
让我们用最大似然定理来寻找模型W的参数。
W = argmax ln(P(W|Y))
现在应用贝叶斯定理。
p(w|y) = p(y|w)*p(w)/p(y)
除以P(Y)是一个可以忽略不计的归一化。我们得到
(1) W = argmax {ln(P(W|Y))} ~ argmax {ln(P(Y|W)) + ln(P(W)) } ~ argmin {-ln(P(Y|W))- ln(P(W))}
P(Y|W),即在参数W下X的概率,可以计算如下。
P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)
如果误差具有正态分布且相互独立,那么
(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))
将(2)代入(1),得到
W ~ argmin {-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))
P(W)通常为1,我们可以拿出拉普拉斯分布。
P(W) ~ exp(-lambda*||W||_1)
我们得到
W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W||_1
结果,将最大似然法和贝叶斯定理应用于我们的高斯误差的序列回归,导致有或没有调整项lambda*的最小二乘法。或没有。数学是复杂的,但结果是简单的。如果你不喜欢正态误差分布,就用另一个分布来代替它,例如拉普拉斯分布,你会得到。
W ~ argmin SUM|e[i]| + lambda*||W||_1。
你也可以用一个超级高斯函数来代替,所以你会得到
W ~ argmin SUM|e[i]|^p + lambda*||W|_1
顺便说一下,这里写的调节性加法将最小二乘法变成了放空编码法。没有它,它就是一个经典的线性回归,通过微分W和等效为零来解决。
你的思考方向似乎是正确的。我开始忘记了,但这里有解释。
假设我们有一个时间序列(价格,如果你喜欢),Y = {y[1], y[2], ..., y[n]}。我们还有未知的模型参数W={w[1], w[2], ...。, w[m]}。假设模型是回归的,也就是
y[i] = SUM_j w[j]*f(X) + e[i] 。
其中f()是一个近似函数(例如多项式),X是输入数据,e[]是一个误差。
让我们用最大似然定理来寻找模型W的参数。
W = argmax ln(P(W|Y))
现在应用贝叶斯定理。
p(w|y) = p(y|w)*p(w)/p(y)
除以P(Y)是一个可以忽略不计的归一化。我们得到
(1) W = argmax {ln(P(W|Y))} ~ argmax {ln(P(Y|W)) + ln(P(W)) } ~ argmin {-ln(P(Y|W))- ln(P(W))}
P(Y|W),即在参数W下X的概率,可以计算如下。
P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)
如果误差具有正态分布且相互独立,那么
(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))
将(2)代入(1),得到
W ~ argmin {-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))
P(W)通常为1,我们可以拿出拉普拉斯分布。
P(W) ~ exp(-lambda*||W||_1)
我们得到
W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W||_1
结果,将最大似然法和贝叶斯定理应用于我们的高斯误差的序列回归,导致有或没有调整项lambda*的最小二乘法。或没有。数学是复杂的,但结果是简单的。如果你不喜欢正态误差分布,就用另一个分布来代替它,例如拉普拉斯分布,你会得到。
W ~ argmin SUM|e[i]| + lambda*||W||_1。
你也可以用一个超级高斯函数来代替,所以你会得到
W ~ argmin SUM|e[i]|^p + lambda*||W|_1
顺便说一下,这里写的调节性加法将最小二乘法变成了放空编码法。如果没有它,它就是一个经典的线性回归,通过对W进行微分并等效为零来解决。
你的思考方向似乎是正确的。我开始忘记了,但这里有解释。
假设我们有一个时间序列(价格,如果你喜欢),Y = {y[1], y[2], ..., y[n]}。我们还有未知的模型参数W={w[1], w[2], ...。, w[m]}。假设模型是回归的,也就是
y[i] = SUM_j w[j]*f(X) + e[i] 。
其中f()是一个近似函数(例如多项式),X是输入数据,e[]是一个误差。
让我们用最大似然定理来寻找模型W的参数。
W = argmax ln(P(W|Y))
现在应用贝叶斯定理。
p(w|y) = p(y|w)*p(w)/p(y)
除以P(Y)是一个可以忽略不计的归一化。我们得到
(1) W = argmax {ln(P(W|Y))} ~ argmax {ln(P(Y|W)) + ln(P(W)) } ~ argmin {-ln(P(Y|W))- ln(P(W))}
P(Y|W),即在参数W下X的概率,可以计算如下。
P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)
如果误差具有正态分布且相互独立,那么
(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))
将(2)代入(1),得到
W ~ argmin {-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))
P(W)通常为1,我们可以拿出拉普拉斯分布。
P(W) ~ exp(-lambda*||W||_1)
我们得到
W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W||_1
结果,将最大似然法和贝叶斯定理应用于我们的高斯误差序列的回归,导致了一种最小二乘法,其支配和值为lambda*...或没有。数学是复杂的,但结果是简单的。如果你不喜欢正态误差分布,就用另一个分布来代替它,例如拉普拉斯分布,你会得到。
W ~ argmin SUM|e[i]| + lambda*||W||_1。
你也可以用一个超级高斯函数来代替,所以你会得到
W ~ argmin SUM|e[i]|^p + lambda*||W|_1
顺便说一下,这里写的调节性加法将最小二乘法变成了放空编码法。没有它,它就是一个经典的线性回归,通过W的微分和等价于零来解决。
谢谢你的详细评论。关键字和公式都给了,我会研究的。
"综上所述,将最大似然法和贝叶斯定理应用于我们具有高斯误差的系列回归中,可以得出带有lambda*调整项的最小二乘法......或没有。数学是曲折的,结果是简单的。"
深信不疑。几乎。用不同的方法计算的直线y=ax+b的系数a和b在数值上或近似于相等,这一点仍然存在疑问。 在这里,你需要费力地比较两种方法的公式或编写一个程序。 主要的是公式、算法和代码本身要符合理论。该方案必须:
-用最小二乘法计算线性回归y=ax+b的a和b的系数
-获得a和b的系数,在应用数学期望值等于ax+b的正态分布时,贝叶斯定理的概率是最大的
然后,我们需要比较这些系数,如果有相当大的差异,就根据这些a和b的动态,看看两条线的行为。例如,在可视化模式的策略测试器中。
该程序可以进一步使用其他模型、回归、分布与贝叶斯公式。也许有些东西会拍得非常好。
P.S 我想到了我最喜欢的例子。
"你有可能已经使用了贝叶斯思维,尽管你并不知道。讨论
我从尼尔-曼森那里学到的一个例子:你是一名战斗中的士兵,正躲在散兵坑里。你知道 一个事实:
,战场上只剩下一名敌军士兵,大约在400
码之外。你也知道,如果是普通士兵,他不可能从那个
的距离击中你。然而,如果那名士兵是一名狙击手,他很有可能击中你
。但敌军中没有多少狙击手,所以可能是一个普通士兵。你
,把头抬出壕沟,试图更好地观察周围。砰!一颗子弹擦过你的头盔
,你跌回散兵坑。
很好,你想。我知道狙击手很罕见,但这家伙从四百
码处击中我。仍然有很大的机会是一个普通士兵,但它是一个狙击手的机会已经
,因为他从这么远的距离打我。几分钟后,你
,敢于再次向外看,把头抬到散兵坑上方。砰!第二颗子弹
,擦过你的头盔。你又倒下了。哦,该死,你想。这绝对是一个狙击手。不管它们有多稀少,
,但是,一般的士兵不可能在这个距离上连续击中两次。 这绝对是
一个狙击手。我最好打电话请求支援。如果这是一个粗略的近似于你在
类似情况下的想法,那么恭喜你。你已经在像贝叶斯人那样思考了,至少有时候
。"(作者不详)。
-用最小二乘法计算线性回归y=ax+b的系数a和b
-得到a和b的系数,在应用期望值等于ax+b的正态分布时,贝叶斯定理的概率是最大的
他们将是平等的,非常接近。问题是,在应用于金融市场时,试图为系数设定一个先验分布是否有意义。
我经常看到正则化应用于回归(L1、L2)。可能比序数线性回归 的效果更好。
他们将是平等的,非常接近。问题是,试图为适用于金融市场的系数设定一个先验分布是否有意义。
我经常看到正则化应用于回归(L1、L2)。可能比序数线性回归 的效果更好。
我理解的系数a和b需要列举,以便根据贝叶斯公式P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y)找到给出最大概率的组合;(1)概率P(a)和P(b)将等于超调周期的步骤,是一个常值。它们的分布将是均匀的。
P.S. 我坚持认为,真正的金融市场和外汇的性质有很大不同。外汇更像是一种赌博业务。一种多人的计算机在线模拟。因此,对于外汇来说,有可能适用这些领域的相关法律。例如,正态分布的规律。