リンクを共有したい - ページ 5

 

ふむ。

赤の列が青の誘導体になっているように見えますね。

 
alsu:
どのように計算したのか、計算式を教えてください。そうすれば、一挙に明らかになるはずです。

hpf(lambda = 13) dx hp1 @hp13_d Hodrick-Prescott filter のラムダを変えてみた。
hpf(lambda = 200) dx hp2 @hpn_d
hp1_d = hpn_d - hp13_d ' 2つのノイズの差分

hp1_d_D = d(hp1_d) ノイズインクリメント
 
alsu:

ふむ

赤い列が青い列の派生形になっているようですね。

そうなんです。どうしてそんなことになったのか、理解できない。


 
faa1947:

そうなんです。どうしてそんなことになったのか、理解できない。



なぜ計量経済学 に関する枝葉が多いのか理解できない...。

...派生シリーズについて、どんなにひねっても......非定常性はどこにでも現れる...見た目が違うだけで...。

 
alsu:

どちらかというと、高頻度の前期データが低頻度データで構築した回帰モデルの精度にどのような影響を与えるか、この方向で見ていきたいと考えています。エルダーへの応用や低頻度データの存在下では意味があり、そのようなモデルは少なくとも一桁以上精度が高くなる疑いがある。そして、もしかしたら、もっと利益が出るかもしれない)。

(ガウシアンメッシュを 用いると、同じノット数の内挿法に比べて 近似の次数をnから2*n-1に上げることができることは、ご存知の 方も多いと思います)。

これに加えて、回帰誤差の機能を扱うことができれば、非常に興味深い。いまだに手をつけていない...。

要するに、従来の最小化関数である誤差の二乗和の代わりに加重二乗和をとり、時間の平方根に反比例して加重をかけるという考え方です。自己回帰差分方程式で、系列の予測値に近いほど誤差が小さくなり、平均誤差が減少する法則が系列の挙動と一致するようにしましょう(歴史の奥深くのデータの散らばりがsqrt(t)として大きくなることを思い出してください)。

単純なウィザードの場合よりも、よりスムーズで正確な結果が得られるはずです。ここまでは直感のレベルですが、このようなことでがっかりすることはまずありません))

どなたかお手数ですが、ご確認をお願いします。私自身は、全部やるには30分とか1時間とかかかると理解していますが、土曜日は......。

 
alsu:

それに加えて、回帰誤差の機能にも取り組むと、非常に面白いですね。まだ手をつけていない...。

要するに、最小化する従来の関数、つまり誤差の二乗和の代わりに、加重二乗和をとり、加重は時間の平方根に反比例するようにしようということです。自己回帰差分方程式で、系列の予測値に近いほど誤差が小さくなり、平均誤差が減少する法則が系列の挙動と一致するようにしましょう(歴史の奥深くのデータの散らばりがsqrt(t)として大きくなることを思い出してください)。

その結果、単純なウィザードよりもスムーズで正確な結果が得られるはずです。ここまでは直感のレベルですが、このようなことでがっかりすることはまずありません))。

どなたかお手数ですが、ご確認をお願いします。私自身は、全部やるには30分とか1時間とかかかると理解していますが、土曜日は......。


数式はあるのですか?

もちろん推論することは可能ですが。

 
Vizard:


なぜ計量経済学に関する枝葉が多いのか理解できない......。

派生シリーズについて、どんなにひねっても...。あらゆるところに非定常性が生じる...見た目が違うだけで...。

問題は、与えられた例において、非定常性が消えてしまい、どこに行ったのかがはっきりしないことである。
 
faa1947:
問題は、上記の例では非定常性が消えてしまい、どこに行ってしまったのかがわからないことです。


が、それ以外は非定常のようです。

それとも(同じものなら)早いほうをリードして使うということでしょうか......。1vrであんなになるわけがない...どこかに間違いがあるはず...。

 
faa1947:
問題は、上記の例では、不安定さが消えてしまい、どこに行ったのかがはっきりしないことです。


ssaの例を見てみた(ssa - cloz)赤50、青10))・・・似ているのは明らか・・・バグはホドリックにある・・・ふざけるな・・・。

 
faa1947: 問題は、与えられた例において、非定常性が消えてしまい、どこに行ったのかがはっきりしないことである。

非定常性が消えたと考える根拠は何ですか?