ベイズ回帰 - このアルゴリズムを使ってEAを作った方はいらっしゃいますか? - ページ 28 1...212223242526272829303132333435...55 新しいコメント Yuri Evseenkov 2016.02.24 06:44 #271 枝葉の話:ベイズ、mqlベイズ式線形依存性 y=ax+b;正規分布の公式です(原則的に別の分布をとることができます)。式を書き換えてみましょう。P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y); (1)である。次に、私が理解した限りでは、aとbの可能な組み合わせをすべて列挙する必要があります。式(1)により最大の確率を与えるa,bを係数とする。 Dmitry Fedoseev 2016.02.24 08:19 #272 Yuri Evseenkov:枝葉の話:ベイズ、mqlベイズ式線形依存性 y=ax+b;正規分布の公式です(原則的に別の分布をとることができます)。式を書き換えてみましょう。P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y); (1)である。次に、私が理解した限りでは、aとbの可能な組み合わせをすべて列挙する必要があります。式(1)により最大の確率を与えるa,bを係数とする。 という疑念もある。 Yuri Evseenkov 2016.02.24 09:16 #273 Dmitry Fedoseev: という疑念が全くないわけではありません。 疑惑を共有してください。 Dmitry Fedoseev 2016.02.24 09:36 #274 Yuri Evseenkov: 疑惑を共有してください。 いいえ。確実に分かっていればコードに入れるのですが、際限なくゴチャゴチャ言ってしまうんですね。このスレにはそんなメガラードがいる、実践で雄弁さを発揮してもらおう。 Yuri Evseenkov 2016.02.24 09:55 #275 Dmitry Fedoseev: いいえ。確実に分かっていれば、コードで表現するのですが、際限なくゴチャゴチャ言ってしまうんですね。このスレにはそんなメガラードがいる、実践で雄弁さを発揮してもらおう。 可哀想に。一番具体的に書いているのはあなたです。そして、オフトップの有能な同志は、私にとって非常に興味深いものですが、「森」に迷い込むことを恐れています。 Vladimir 2016.02.25 01:35 #276 Yuri Evseenkov:枝葉の話:ベイズ、mqlベイズ式線形依存性 y=ax+b;正規分布の公式です(原則的に他の分布をとることができます)。式を書き換えてみましょう。P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y); (1)である。次に、私が理解した限りでは、aとbの可能な組み合わせをすべて列挙する必要があります。式(1)により最大の確率を与えるa,bを係数とする。正しい方向で考えているようですね。もう忘れてしまいましたが、解説はこうです。時系列(価格でも可)Y = {y[1], y[2], ..., y[n]}があるとします。また、未知のモデルパラメータW={w[1], w[2], ...がある。, w[m]}.モデルが回帰であるとすると、つまりy[i] = SUM_j w[j]*f(X) + e[i] とする。ここで、f()は近似関数(例えば多項式)、Xは入力データ、e[]は誤差である。最尤法を使って、モデルWのパラメータを求めよう。W = argmax ln(P(W|Y))ここでベイズの定理を適用してみましょう。p(w|y) = p(y|w)*p(w)/p(y)P(Y)で割るのは正規化であり、無視してもよい。を得ることができます。(1) W = argmax {ln(P(W|Y))} 〜 argmax {ln(P(Y|W)) + ln(P(W))} 〜 argmin {-ln(P(Y|W))- ln(P(W))}。パラメータWが与えられたときのXの確率であるP(Y|W)は、以下のように計算できる。P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)である。誤差が正規分布を持ち、互いに独立であれば(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))(2)を(1)に代入し、以下を得る。W〜argmin{-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))P(W)は通常1であり、ラプラス分布が取り出せます。P(W) ~ exp(-λ*|W||_1)を得ることができます。W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W|_1その結果、ガウス誤差を持つ我々の系列の回帰に最尤法とベイズの定理を適用すると、支配総和λ*...を持つ最小二乗法が導き出される。を使うか、使わないか。計算方法は複雑ですが、結果は簡単です。正規の誤差分布が気に入らない場合は、別の分布、例えばラプラシアンに置き換えると、次のようになります。W ~ argmin SUM|e[i]| + lambda*|W||_1.また、スーパーガウシアンに置き換えることで、次のようになります。W ~ argmin SUM|e[i]|^p + lambda*||W|_1ところで、ここで書かれているような調整加法は、最小二乗法をデフレート符号化法に変えてしまう。これがないと、古典的な線形回帰と なり、Wで微分してゼロに等化することで解かれる。 Bayesian regression - Has MQL5での統計確率分布 トレーダーの作業における統計的分布の役割 Alexey Burnakov 2016.02.25 07:42 #277 Vladimir:正しい方向で考えているようですね。忘れかけていますが、ここで説明します。時系列(価格でも可)Y = {y[1], y[2], ..., y[n]}があるとします。また、未知のモデルパラメータW={w[1], w[2], ...がある。, w[m]}.モデルが回帰であるとすると、つまりy[i] = SUM_j w[j]*f(X) + e[i] とする。ここで、f()は近似関数(例えば多項式)、Xは入力データ、e[]は誤差である。最尤法を使って、モデルWのパラメータを求めよう。W = argmax ln(P(W|Y))ここでベイズの定理を適用してみましょう。p(w|y) = p(y|w)*p(w)/p(y)P(Y)で割るのは正規化であり、無視してもよい。を得ることができます。(1) W = argmax {ln(P(W|Y))} 〜 argmax {ln(P(Y|W)) + ln(P(W))} 〜 argmin {-ln(P(Y|W))- ln(P(W))}。パラメータWが与えられたときのXの確率であるP(Y|W)は、以下のように計算できる。P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)である。誤差が正規分布を持ち、互いに独立であれば(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))(2)を(1)に代入し、以下を得る。W〜argmin{-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))P(W)は通常1であり、ラプラシアン分布を取り出すことができる。P(W) ~ exp(-λ*|W||_1)を得ることができます。W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W|_1その結果、ガウス誤差を持つ我々の系列の回帰に最尤法とベイズの定理を適用すると、支配総和λ*...を持つ最小二乗法が導き出される。を使うか、使わないか。計算方法は複雑ですが、結果は簡単です。正規の誤差分布が気に入らない場合は、別の分布、例えばラプラシアンに置き換えると、次のようになります。W ~ argmin SUM|e[i]| + lambda*||W|_1.また、スーパーガウシアンに置き換えることで、次のようになります。W ~ argmin SUM|e[i]|^p + lambda*||W|_1ところで、ここで書かれているような調整加法は、最小二乗法をデフレート符号化法に変えてしまう。これがないと、古典的な線形回帰と なり、Wで微分してゼロに等化することで解かれる。 ありがとうございました。 Yuri Evseenkov 2016.02.25 13:18 #278 Vladimir:正しい方向で考えているようですね。忘れかけていますが、ここで説明します。時系列(価格でも可)Y = {y[1], y[2], ..., y[n]}があるとします。また、未知のモデルパラメータW={w[1], w[2], ...がある。, w[m]}.モデルが回帰であるとすると、つまりy[i] = SUM_j w[j]*f(X) + e[i] とする。ここで、f()は近似関数(例えば多項式)、Xは入力データ、e[]は誤差である。最尤法を使って、モデルWのパラメータを求めよう。W = argmax ln(P(W|Y))ここでベイズの定理を適用してみましょう。p(w|y) = p(y|w)*p(w)/p(y)P(Y)で割るのは正規化であり、無視してもよい。を得ることができます。(1) W = argmax {ln(P(W|Y))} 〜 argmax {ln(P(Y|W)) + ln(P(W))} 〜 argmin {-ln(P(Y|W))- ln(P(W))}。パラメータWが与えられたときのXの確率であるP(Y|W)は、以下のように計算できる。P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)である。誤差が正規分布を持ち、互いに独立であれば(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))(2)を(1)に代入し、以下を得る。W〜argmin{-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))P(W)は通常1であり、ラプラシアン分布を取り出すことができる。P(W) ~ exp(-λ*|W||_1)を得ることができます。W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W|_1その結果、ガウス誤差を持つ我々の系列の回帰に最尤法とベイズの定理を適用すると、支配総和λ*...を持つ最小二乗法が導き出される。を使うか、使わないか。計算方法は複雑ですが、結果は簡単です。正規の誤差分布が気に入らない場合は、別の分布、例えばラプラシアンに置き換えると、次のようになります。W ~ argmin SUM|e[i]| + lambda*||W|_1.また、スーパーガウシアンに置き換えることで、次のようになります。W ~ argmin SUM|e[i]|^p + lambda*||W|_1ところで、ここで書かれているような調整加法は、最小二乗法をデフレート符号化法に変えてしまう。これがなければ、Wで微分してゼロに等化することで解く古典的な線形回帰と なる。詳細なコメントありがとうございます。キーワードと計算式が出ますので、調べます。"要約すると、ガウス誤差のある系列回帰に最尤法とベイズの定理を適用すると、λ*調整項を持つ最小二乗法が導かれる...。を使うか、使わないか。数学は複雑で、結果は単純です。"納得。ほとんど。線分y=ax+bの係数a,bが異なる方法で計算された場合、数値的に等しいか、近似的に等しいかは疑問が残る。 ここで、2つの方法の公式を丹念に比較するか、プログラムを書く必要がある。 公式、アルゴリズム、コード自体が理論的に適切かどうかが大きなポイントである。プログラムでなければならない。 -最小二乗法を用いて、線形回帰 y=ax+b の係数 a と b を計算せよ。-数学的期待値がax+bに等しい正規分布を適用したとき、ベイズの定理による確率が最大となるa,bの係数を求めます。そして、それらの係数を比較し、かなりの差がある場合は、それらのa、bを基に2つの線の挙動を力学的に見る必要がある。例えば、可視化モードのストラテジーテスターで。このプログラムは、さらに他のモデル、回帰、ベイズ式による分布を使用して使用することができます。もしかしたら、何かがすごくうまく撮れるかもしれない。P.S 私の好きな例が思い浮かびます。"ベイズ思考 "は、知らず知らずのうちに、すでに使っていた可能性があります。議論するニール・マンソンから引用した例:あなたは戦場で狐穴に隠れている兵士 です。あなたは事実として知っている、戦場に残っている敵兵は約400ヤードだけ です。また、一般兵であれば、あの の距離では当たらないことも分かっているはずだ。しかし、その兵士がスナイパーであれば、、命中する可能性は十分にあります。でも、敵軍にスナイパーはあまりいないから、たぶん普通の兵隊さんだと思う。、溝から顔を出し、周囲をよく見渡そうとする。弾丸がヘルメットをかすめ、、フォックスホールに 倒れこんだ。よかった、と思う。スナイパーが珍しいのは知っているが、こいつは400 ヤードから俺を撃ったんだ。普通の兵士である可能性はまだ高いが、狙撃手の可能性はすでに、これだけの距離から私を襲ったのだから。数分後、あなたは再び外を見て、フォックスホールの上に頭を上げることを敢えて します。バーン! 2発目の弾丸がヘルメットをかす める倒れてしまうのです。あ、やばい、と思ったあなた。間違いなくスナイパーです。い くらレアとは いえ、 しかし、一般兵はあの距離で2回続けて打つことはできない。 確かに スナイパーですね。応援を呼んだ方がいいこれが似た ような状況で考えることの大まかな目安になるのであれば、おめでとうございます。あなたはすでにベイズ的な思考をしている、少なくとも 時々。"(著者は特定せず)。 Alexey Burnakov 2016.02.25 15:13 #279 Yuri Evseenkov:-最小二乗法による線形回帰 y=ax+b の係数 a、b を計算する。-期待値がax+bに等しい正規分布を適用したとき、ベイズの定理による確率が最大になるa、bの係数を求める。対等で、とても近い存在になるでしょう。問題は、金融市場に適用する際に、係数の分布を先験的に設定しようとすることに意味があるのか、ということである。回帰(L1、L2)で正則化が適用されているのをよく見かけます。順序線形回帰よりも うまくいくかもしれない。 Yuri Evseenkov 2016.02.25 19:47 #280 Alexey Burnakov:対等で、とても近い存在になるでしょう。問題は、金融市場に適用される係数の分布を先験的に設定しようとすることに意味があるのかどうかである。回帰(L1、L2)で正則化が適用されているのをよく見かけます。順序線形回帰より うまくいくかもしれない。ベイズの式 P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y); (1) 確率 P(a) と P(b) はオーバーシュートサイクルのステップと同じで一定 値となることがわかりました。その分布は一様である。追伸:私は、現実の金融市場とFXの性質は大きく異なるという意見に固執しています。FXはどちらかというとギャンブルです。多人数参加型コンピュータオンラインシミュレーションの一種。ですから、FXの場合は、これらの分野に関連する法律を適用することが可能です。例えば、正規分布の法則。 1...212223242526272829303132333435...55 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
枝葉の話:ベイズ、mql
ベイズ式
線形依存性 y=ax+b;
正規分布の公式です(原則的に別の分布をとることができます)。
式を書き換えてみましょう。
P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y); (1)である。
次に、私が理解した限りでは、aとbの可能な組み合わせをすべて列挙する必要があります。式(1)により最大の確率を与えるa,bを係数とする。
枝葉の話:ベイズ、mql
ベイズ式
線形依存性 y=ax+b;
正規分布の公式です(原則的に別の分布をとることができます)。
式を書き換えてみましょう。
P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y); (1)である。
次に、私が理解した限りでは、aとbの可能な組み合わせをすべて列挙する必要があります。式(1)により最大の確率を与えるa,bを係数とする。
という疑念が全くないわけではありません。
疑惑を共有してください。
いいえ。確実に分かっていれば、コードで表現するのですが、際限なくゴチャゴチャ言ってしまうんですね。このスレにはそんなメガラードがいる、実践で雄弁さを発揮してもらおう。
枝葉の話:ベイズ、mql
ベイズ式
線形依存性 y=ax+b;
正規分布の公式です(原則的に他の分布をとることができます)。
式を書き換えてみましょう。
P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y); (1)である。
次に、私が理解した限りでは、aとbの可能な組み合わせをすべて列挙する必要があります。式(1)により最大の確率を与えるa,bを係数とする。
正しい方向で考えているようですね。もう忘れてしまいましたが、解説はこうです。
時系列(価格でも可)Y = {y[1], y[2], ..., y[n]}があるとします。また、未知のモデルパラメータW={w[1], w[2], ...がある。, w[m]}.モデルが回帰であるとすると、つまり
y[i] = SUM_j w[j]*f(X) + e[i] とする。
ここで、f()は近似関数(例えば多項式)、Xは入力データ、e[]は誤差である。
最尤法を使って、モデルWのパラメータを求めよう。
W = argmax ln(P(W|Y))
ここでベイズの定理を適用してみましょう。
p(w|y) = p(y|w)*p(w)/p(y)
P(Y)で割るのは正規化であり、無視してもよい。を得ることができます。
(1) W = argmax {ln(P(W|Y))} 〜 argmax {ln(P(Y|W)) + ln(P(W))} 〜 argmin {-ln(P(Y|W))- ln(P(W))}。
パラメータWが与えられたときのXの確率であるP(Y|W)は、以下のように計算できる。
P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)である。
誤差が正規分布を持ち、互いに独立であれば
(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))
(2)を(1)に代入し、以下を得る。
W〜argmin{-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))
P(W)は通常1であり、ラプラス分布が取り出せます。
P(W) ~ exp(-λ*|W||_1)
を得ることができます。
W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W|_1
その結果、ガウス誤差を持つ我々の系列の回帰に最尤法とベイズの定理を適用すると、支配総和λ*...を持つ最小二乗法が導き出される。を使うか、使わないか。計算方法は複雑ですが、結果は簡単です。正規の誤差分布が気に入らない場合は、別の分布、例えばラプラシアンに置き換えると、次のようになります。
W ~ argmin SUM|e[i]| + lambda*|W||_1.
また、スーパーガウシアンに置き換えることで、次のようになります。
W ~ argmin SUM|e[i]|^p + lambda*||W|_1
ところで、ここで書かれているような調整加法は、最小二乗法をデフレート符号化法に変えてしまう。これがないと、古典的な線形回帰と なり、Wで微分してゼロに等化することで解かれる。
正しい方向で考えているようですね。忘れかけていますが、ここで説明します。
時系列(価格でも可)Y = {y[1], y[2], ..., y[n]}があるとします。また、未知のモデルパラメータW={w[1], w[2], ...がある。, w[m]}.モデルが回帰であるとすると、つまり
y[i] = SUM_j w[j]*f(X) + e[i] とする。
ここで、f()は近似関数(例えば多項式)、Xは入力データ、e[]は誤差である。
最尤法を使って、モデルWのパラメータを求めよう。
W = argmax ln(P(W|Y))
ここでベイズの定理を適用してみましょう。
p(w|y) = p(y|w)*p(w)/p(y)
P(Y)で割るのは正規化であり、無視してもよい。を得ることができます。
(1) W = argmax {ln(P(W|Y))} 〜 argmax {ln(P(Y|W)) + ln(P(W))} 〜 argmin {-ln(P(Y|W))- ln(P(W))}。
パラメータWが与えられたときのXの確率であるP(Y|W)は、以下のように計算できる。
P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)である。
誤差が正規分布を持ち、互いに独立であれば
(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))
(2)を(1)に代入し、以下を得る。
W〜argmin{-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))
P(W)は通常1であり、ラプラシアン分布を取り出すことができる。
P(W) ~ exp(-λ*|W||_1)
を得ることができます。
W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W|_1
その結果、ガウス誤差を持つ我々の系列の回帰に最尤法とベイズの定理を適用すると、支配総和λ*...を持つ最小二乗法が導き出される。を使うか、使わないか。計算方法は複雑ですが、結果は簡単です。正規の誤差分布が気に入らない場合は、別の分布、例えばラプラシアンに置き換えると、次のようになります。
W ~ argmin SUM|e[i]| + lambda*||W|_1.
また、スーパーガウシアンに置き換えることで、次のようになります。
W ~ argmin SUM|e[i]|^p + lambda*||W|_1
ところで、ここで書かれているような調整加法は、最小二乗法をデフレート符号化法に変えてしまう。これがないと、古典的な線形回帰と なり、Wで微分してゼロに等化することで解かれる。
正しい方向で考えているようですね。忘れかけていますが、ここで説明します。
時系列(価格でも可)Y = {y[1], y[2], ..., y[n]}があるとします。また、未知のモデルパラメータW={w[1], w[2], ...がある。, w[m]}.モデルが回帰であるとすると、つまり
y[i] = SUM_j w[j]*f(X) + e[i] とする。
ここで、f()は近似関数(例えば多項式)、Xは入力データ、e[]は誤差である。
最尤法を使って、モデルWのパラメータを求めよう。
W = argmax ln(P(W|Y))
ここでベイズの定理を適用してみましょう。
p(w|y) = p(y|w)*p(w)/p(y)
P(Y)で割るのは正規化であり、無視してもよい。を得ることができます。
(1) W = argmax {ln(P(W|Y))} 〜 argmax {ln(P(Y|W)) + ln(P(W))} 〜 argmin {-ln(P(Y|W))- ln(P(W))}。
パラメータWが与えられたときのXの確率であるP(Y|W)は、以下のように計算できる。
P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)である。
誤差が正規分布を持ち、互いに独立であれば
(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))
(2)を(1)に代入し、以下を得る。
W〜argmin{-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))
P(W)は通常1であり、ラプラシアン分布を取り出すことができる。
P(W) ~ exp(-λ*|W||_1)
を得ることができます。
W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W|_1
その結果、ガウス誤差を持つ我々の系列の回帰に最尤法とベイズの定理を適用すると、支配総和λ*...を持つ最小二乗法が導き出される。を使うか、使わないか。計算方法は複雑ですが、結果は簡単です。正規の誤差分布が気に入らない場合は、別の分布、例えばラプラシアンに置き換えると、次のようになります。
W ~ argmin SUM|e[i]| + lambda*||W|_1.
また、スーパーガウシアンに置き換えることで、次のようになります。
W ~ argmin SUM|e[i]|^p + lambda*||W|_1
ところで、ここで書かれているような調整加法は、最小二乗法をデフレート符号化法に変えてしまう。これがなければ、Wで微分してゼロに等化することで解く古典的な線形回帰と なる。
詳細なコメントありがとうございます。キーワードと計算式が出ますので、調べます。
"要約すると、ガウス誤差のある系列回帰に最尤法とベイズの定理を適用すると、λ*調整項を持つ最小二乗法が導かれる...。を使うか、使わないか。数学は複雑で、結果は単純です。"
納得。ほとんど。線分y=ax+bの係数a,bが異なる方法で計算された場合、数値的に等しいか、近似的に等しいかは疑問が残る。 ここで、2つの方法の公式を丹念に比較するか、プログラムを書く必要がある。 公式、アルゴリズム、コード自体が理論的に適切かどうかが大きなポイントである。プログラムでなければならない。
-最小二乗法を用いて、線形回帰 y=ax+b の係数 a と b を計算せよ。
-数学的期待値がax+bに等しい正規分布を適用したとき、ベイズの定理による確率が最大となるa,bの係数を求めます。
そして、それらの係数を比較し、かなりの差がある場合は、それらのa、bを基に2つの線の挙動を力学的に見る必要がある。例えば、可視化モードのストラテジーテスターで。
このプログラムは、さらに他のモデル、回帰、ベイズ式による分布を使用して使用することができます。もしかしたら、何かがすごくうまく撮れるかもしれない。
P.S 私の好きな例が思い浮かびます。
"ベイズ思考 "は、知らず知らずのうちに、すでに使っていた可能性があります。議論する
ニール・マンソンから引用した例:あなたは戦場で狐穴に隠れている兵士 です。あなたは事実として知っている
、戦場に残っている敵兵は約400
ヤードだけ です。また、一般兵であれば、あの
の距離では当たらないことも分かっているはずだ。しかし、その兵士がスナイパーであれば、
、命中する可能性は十分にあります。でも、敵軍にスナイパーはあまりいないから、たぶん普通の兵隊さんだと思う。
、溝から顔を出し、周囲をよく見渡そうとする。弾丸がヘルメットをかすめ、
、フォックスホールに 倒れこんだ。
よかった、と思う。スナイパーが珍しいのは知っているが、こいつは400
ヤードから俺を撃ったんだ。普通の兵士である可能性はまだ高いが、狙撃手の可能性はすでに
、これだけの距離から私を襲ったのだから。数分後、あなたは
再び外を見て、フォックスホールの上に頭を上げることを敢えて します。バーン! 2発目の弾丸
がヘルメットをかす める倒れてしまうのです。あ、やばい、と思ったあなた。間違いなくスナイパーです。い くらレアとは いえ、
しかし、一般兵はあの距離で2回続けて打つことはできない。 確かに
スナイパーですね。応援を呼んだ方がいいこれが
似た ような状況で考えることの大まかな目安になるのであれば、おめでとうございます。あなたはすでにベイズ的な思考をしている、少なくとも
時々。"(著者は特定せず)。
-最小二乗法による線形回帰 y=ax+b の係数 a、b を計算する。
-期待値がax+bに等しい正規分布を適用したとき、ベイズの定理による確率が最大になるa、bの係数を求める。
対等で、とても近い存在になるでしょう。問題は、金融市場に適用する際に、係数の分布を先験的に設定しようとすることに意味があるのか、ということである。
回帰(L1、L2)で正則化が適用されているのをよく見かけます。順序線形回帰よりも うまくいくかもしれない。
対等で、とても近い存在になるでしょう。問題は、金融市場に適用される係数の分布を先験的に設定しようとすることに意味があるのかどうかである。
回帰(L1、L2)で正則化が適用されているのをよく見かけます。順序線形回帰より うまくいくかもしれない。
ベイズの式 P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y); (1) 確率 P(a) と P(b) はオーバーシュートサイクルのステップと同じで一定 値となることがわかりました。その分布は一様である。
追伸:私は、現実の金融市場とFXの性質は大きく異なるという意見に固執しています。FXはどちらかというとギャンブルです。多人数参加型コンピュータオンラインシミュレーションの一種。ですから、FXの場合は、これらの分野に関連する法律を適用することが可能です。例えば、正規分布の法則。