計量経済学:文献目録 - ページ 7

 
faa1947:

TSとDSはロシアの論文発明です。

問題が違うのです。商から決定論的な要素を分離し、残差を見るというのが私の考えです。残差が定常的であれば、決定論的な成分を外挿することができる。そうでない場合は、残差から決定論的な成分を抽出する・・・。その方法で、動作するシステムを手に入れることは可能なのでしょうか?一般的なケースではありません、証拠はありません。しかし、添付の添付資料では、トレンドにねじれがなければすべてうまくいくと主張されています。しかし、このケースでもこの厄介さを克服するために、いくつかの提案がなされている。

同じコースでEAを作りました。適応型時系列予測 モデルで、不安定な揺らぎがあり、最後までトレンドに沿って動きますが、反転すると急落します。
 
faa1947:

TSとDSはロシアの論文発明です。

問題が違うのです。私の考えでは、商から決定論的な要素を取り出して、残差を見ています。残差が定常的であれば、決定論的な成分を外挿することができる。そうでない場合は、残差から決定論的な成分を抽出する・・・。

決定論的な成分を抽出してそれを除去した場合,明らかに別の 抽出方法を用いて残差から何かを抽出する必要があります(出力に既知のゼロを出したい場合は別です).というように、各ステップごとに

書き込みから判断すると、この集団は「ブレークポイント」が何であるかを理解していない。 をわかりやすく言うとモデルを調整したそうです。新しいバーができるたびに再フィットし、新しいバーは前のバーと一致します。そして、そのパラメータによる新しいモデルは、以前のモデルと一致しない。サンプル内部の コチエが、モデルパラメータが変化するような形で変化したことを意味する。 パラメータが良ければ、それを調整し、次のバーですべてがうまくいくことを期待することができます。しかし、商が変化することで関数形式を変更しなければならないこともある。また、ブレイクは1小節の到着では診断されないことがほとんどで、数小節必要である、つまり、損失に移動して、ここからSLの歌が始まる。

この問題についての添付ファイルはこちらです。私が考えるに、これはトレーディングにおける最大の問題点であり、それは骨折です。

トレーディングに当てはめると、問題は、SLが鳴り出す前に、できるだけ早くブレークポイント(とでも呼ぶのでしょうか、私は「定常性の乱れ」という表現が好きです)を検出することです。というのも、線形モデルでは、標本内の どの時点で断絶が起こったかを正確に判断する手段が全くないからです。また、ご指摘の通り、このモデルでは、1本のバーの到着でブレイクが診断されることはほとんどなく、そのバーがすぐにムーに入らない限りは、ブレイクが診断されます。

 
orb:
同じコースでExpert Advisorを作りましたが、不安定な変動のある時系列を予測する適応型モデルで、最後までトレンドに沿って動作しますが、反転は失われます。
"ソ連の新聞は読むな"。
 
alsu:

決定論的な成分を抽出してそれを取り除いた場合、残りから何かを抽出するためには、明らかに別の抽出方法を使う必要があります(出力に意図的にゼロを入れたいのでなければ)。といった具合に、各ステップで

なぜ違うものを?理解できない。予測ブランチでは、Hodrick-Prescottフィルタの複数の応用例を示しました。何の役にも立たないことを実証した。集合体から何も搾り取らなかった。しかし、今だから言えることですが、問題は2つありました。(1)フィルターについての主張、これは右のエッジエフェクトと思われるが、(2)モデルそのものと同じくらい問題なのは、得られた予測の利用方法である。この問題が解決されないと、平滑化手法 の思惑が外れる。とはいえ、予知能力の活用の問題点を解決する方法として、MMは捨てがたい。

その上で、添付ファイルとハンドブックへのリンクを掲載しました。どちらもこのフォーラムでは初めてのポジションで、私の中では非常に有望な存在です。

トレードに応用した場合の問題は、SLが発動する前に、できるだけ早くキンク(とでも呼ぶのでしょうか、私は「定常性の乱れ」という表現のほうが好きです)を検出することです。というのも、線形モデルの場合、サンプルのどの部分で断絶が起こったかを正確に判断する手段がまったくないからです。また、ご指摘の通り、このモデルでは、バーが1本来たからといって、そのバーがすぐに大鹿を追い詰めない限り、変態と診断されることはほとんどないのです。

アタッチメントの考え方は、複数のモデルで予測することです。モデルによっては、異なるポイントでキンクが発生し、そのため予測が精緻化されます。そうだと思います。

 
faa1947:


なぜもう一台なのか?理解できない。

単純な論理です。信号があり、その中から決定論的な成分を抽出したいとします。もちろん、最適な方法で行いたい。つまり、どんな状況でも、この信号で使用する方法が最良の結果を与えることができないようにしたい。ここで注意すべきは、この場合、最適化基準を導入する必要があり、それによって、アルゴリズムのパラメータに制約を課すことである。しかし、もしそれが達成され、使用した手法から最適値を絞り出したのであれば、同じ手法を同じ最適化基準で使用すると、残差はゼロになるはずです。そうでなければ、前のステップのパラメータが最適化基準に基づいて計算されているという事実と矛盾してしまいますから...。

もし、最適化基準を 適用せず、単に、例えば、静的なフィルターで信号をフィルタリングした場合、理論的には、その結果を決定論的成分と呼ぶ権利はないのです。何をもって決定論とするか?結局のところ、同じ構造で異なるパラメータを持つフィルターをたくさん適用しても、すべて異なる結果を得ることができるのです。では、どれを決定論的要素と考えればいいのでしょうか?最適化基準を導入しない限り、すべてのパラメータセットは等しくなります。

(1)右の限界効果ではないかと思われる、フィルターに関する主張

エッジエフェクトはどんな方法でも避けられないもので、因果関係の原理の帰結であり、完全に取り除くことはできないのです。しかし、その影響を平準化することで対策することは可能です。そのためには、サンプルに関する先験的な知識が必要であり、つまりは基礎的な研究が必要である。


そして、(2)モデルそのものと同じくらい問題なのが、結果として得られる予測の利用方法である。

まあ、それは完全に古い曲なんだけどね))
 
alsu:

単純な論理です。信号があり、その中から決定論的な成分を抽出したいとします。もちろん、最適な形で行いたい。

その基準であるRMSEはわかっている。SEに埋没しないように。この基準により、特定のサンプルの平滑化パラメータを選択することができる。ずれるときは、再計算します。

商の一部が数式で近似されるという意味で、決定論的な成分を得ることができる。スムースディファレンシャルであることが多いなど。ランダム臭がないのです。しかし、そこには必ず近似の誤差がある。そして、もうひとつの配慮があります。

元の商は非定常である。この滑らかな近似値を引き算している。質問:非定常性はどこにあるのですか?消えてしまったのでしょうか?残差は定常的か?残差が定常であれば、予測を立てることができる。定常でない場合は予測ができないので、非定常を齧りながら平滑化を続けるしかない。残差の絶対値は減少し、3回目のスムージングでスプレッドは通常1ピップの数分の1になり、最終的に忘れることができます。

 
faa1947:

単純な論理です。信号があり、その中から決定論的な成分を抽出したいとします。もちろん、最適な形で行いたい。

その基準であるRMSEはわかっている。SEに埋没しないように。この基準により、特定のサンプルの平滑化パラメータを選択することができる。ずれるときは、再計算します。

商の一部が数式で近似されるという意味で、決定論的な成分を得ることができる。スムースディファレンシャルであることが多いなど。ランダム臭がないのです。しかし、そこには必ず近似の誤差がある。そして、もうひとつの配慮があります。

初期商は非定常である。この滑らかな近似値を引き算している。質問:非定常性はどこにあるのですか?消えてしまったのでしょうか?残差は定常的か?残差が定常であれば、予測を立てることができる。定常でない場合は予測ができないので、非定常を齧りながら平滑化を続けるしかない。残差は絶対値で減少し、3回目の平滑化でスプレッドは通常1ピップ程度になることを考えると、ようやく唾をつけることができる。

最終的には、反復手順そのものが決定論的な成分を決定する最適な方法であると考えることができる。要は、出力に定常的な白色ノイズをもたらすこと、つまり非定常性だけでなく残差の自己相関も 取り除かなければならず、そうでなければ予測は意味をなさない。要するに、この問題はこの定式化で昔から知られていたのですが、オープンアクセスにおけるForaのその解決策を見たことがないのです。しかし、そうだとしても、解析窓における決定論的成分の形がそれ自体定常的である、つまり、窓をずらしても変わらない、と誰が言えるだろうか。そうでなければ、その予測に価値はない。

 
alsu:

そして、そうでなければ、予報の意味がないのです。

理想は実現できない。

例としてプランを見てみましょう。

T=10のマシンを例にとります。私の場合は、定数係数=0.1で10個の独立変数を計算に入れています。

一度カウントしたフィッティング誤差は、H1では100pips以上。

何が問題なのか?明らかに定数係数。

10個のラグ値で回帰し、係数を数えます。 それらは0.1には等しくありません。誤差は少なくなりましたが、それでも約100ピップスです。

次の質問です。なぜ10個の独立変数なのか?

次に、なぜこれらの変数の線形結合なのか?

この時の推理は。

係数、独立変数の数、関数形式を調整する必要があります。

それだけですか?

いいえ、そんなことはありません。

私たちは、市場に適応型モデルという概念を打ち出しましたが、市場で何を見るのか、市場から何を得るのか、という疑問が生じます。

EViewsを使えば、上記よりも広い範囲のパラメータを切り出して近似させることができるテストのセットがあります。

 

そうなんです。それしかないんです。

Адаптировать [...] коэффициенты, кол-во независимых переменных, функциональную форму

たかが小物ですが))
 
orb:
=) go on, go on) あまり聞かない、よく知らない。
イリヤ・プリゴジンを読む。多くのことを学ぶことができます。すべての動的システムにはカオスが存在する。