市場モデル:スループット一定 - ページ 14

 
sanyooooook:
もっと頻繁に、もっと少なく。しかし、時間が考慮されていない場合はどうでしょうか?
決定には確率が使われ、時間的な基準はなく、完全な自由があるのです。あるいは、未知なるもの :) といったところでしょうか。
 

Предполагается, что рынок, как относительно замкнутая система, за единицу времени генерирует постоянное (или медленно меняющееся) количество информации.

ある程度は納得できるかもしれないが、ある程度の情報が入ってこないと相場は変わらない(仮にポイントとして)。

 
sanyooooook:

ある程度は納得できるかもしれないが、ある程度の情報が入ってこないと、相場は一定量(例えばポイント)変化しないものだ


古い情報に対して新しい考えを持ち、他人の思い込みの誤謬で儲けようとする新しい人たちがやってきて、市場を変えていく :)彼らは効率的市場の理論について何も聞いていない :)
 
これはどういうことなのでしょうか?
削除済み  
Avals:

古い情報に対する新しい考えと、他人の思い込みの誤りを利用して儲けようという希望を持った新しい人たちが入ってきて、市場を変えてしまったのです :)彼らは効率的市場の理論について何も聞いていない :)


入ってきて、40pips後に去っていった?自分たちのアイデアの新規性(古い情報についての)思い込みの誤りに気づき、市場の効率性について読みに行った?

--

金曜日じゃないんだから。

 
gip:
原付はディックフィックスではなく、リンクを提供し、それはかなり離れたどこかからのものです。

なるほど。 原付の共著者の一人として、ちょっとだけご紹介します。

「標準的な」アーカイブ手法(LZやハフマンなど、よりエキゾチックなものは気にしない)は、バイトストリームを入力として動作します。

引用符のストリームは通常、実数のストリームとして、すなわち数バイトずつのパケットとして符号化される。

この事実を無視する限り、一般的なユニバーサルアーカイバによる圧縮は、引用ストリームの情報量に対する意味のある検討には到底及ばない。

さらに、lempel-zivはハフマンを何倍も安定して上回ります。これは、入力がデータ表現に関連した(引用動作ではなく)容易に予測可能な「技術的」パターンを含むため、非常に論理的です(しかし全く意味がありません)。

一方、ストリームダブルの圧縮に特化したアーカイバを書くのは時期尚早と思われ、このアプローチの見通しは不明確で曖昧だ。

では、研究を進めるために、最小限の労力で、結果の合理性を最大限に高めるには、どのような意味があるのでしょうか。

私が考えるに、まずは見積もりフローを変革することです。

1) バイトストリームへ

2)最初の違い

3)対数的。

その場合、この情報調査が少しは有益なものになるのかもしれません。

ダジャレに//パドン

 
MetaDriver:

この事実を無視する限り、一般的なユニバーサルアーカイバによる圧縮は、引用ストリームの情報量に対する意味のある調査には到底及ばない。

さらに、lempel-zivは、データ表現に関連する(引用符の動作に関連しない)、簡単に予測できる「技術的」パターンが入ってくるので、論理的には(しかし絶対に意味のない)ハフマンを何倍も安定して上回ると思われます。

また、トピックスターターが得た結果について、どう思われますか?ランダムシリーズの圧縮率の高さを指しているのです。

つまり、アーカイバーは価格情報シリーズを「解読」することも、「破棄」することもできなかったということでしょうか。

どのように考えればよいのでしょうか。まず、価格シリーズのストリームを変換します。

1) バイトストリームへ

2)最初の違い

3)対数的。

これはあくまで、情報メーターを何に適用するかという問題に対してです。

それは、「稀な事象が最大の情報量を持つ」という一般的な問題です。

しかし、希少な情報であるからこそ、その情報を定量化するために必要な確率密度 関数を確実に再現することができないのである。

 
Candid:

トピックスターターが得た結果について、どう思われますか?ランダムシリーズの圧縮率の高さを指しています。

これは、アーカイバーが価格シリーズに含まれる情報を「解読」できなかっただけでなく、「廃棄」することもできなかったということだろうか。

いいえ。私にはもっと原始的な感じがします。トピックを拝見する限り、ローソク足は圧縮されていることが理解できました。ランダムシグナルを生成する際、ローソク足もシミュレートしています。なお、正規分布が用いられて いる。それがコツです(イマドキ)。それは(NR)振幅とシフト値が等しいローソク足の高い確率密度を 作成します。つまり、情報理論的には「情報量が少ない」ということです。そのため、圧縮性が高い。ところで、得られた結果は、この方法が道具的な原始性にもかかわらず、実行可能であることを示している。

あくまでも、情報メーターを何に適用するかという問題に対してです。

ここに、私には、むしろ一般的な問題があるように思われ、それは、最大限の情報がすなわち稀な事象を負担することにある。

しかし、その希少性ゆえに、情報の定量化に必要な確率密度関数を確実に再構築することができない。

そこで役立つのがダニです。という意味で

1)入力情報が豊富で、スクロールして絞り込むことが多い。

2)ティック分析は、バーによって「鋳造」されるよりも、はるかに正しいものになります。

そして、細かい敷居の高いジグザグがいろいろとできる。Renko、Kagi、その他様々な改造を施しています。

そして、あれです。- イベントのレア度は相対的なもので、非常にレアなものは無視(カット)し、それ以外のものについては統計を取ることができます。

--

全体的な印象としては、やや泥臭く感じる話題です。議論のレベルはアップに値する。話題性には価値がある。有意義なテーマです。

 

Candid:

これは、アーカイバーが価格シリーズに含まれる情報の「解読」に失敗し、かつ「廃棄」にも失敗したということでしょうか。

実は、「はいいいえ」と書くべきではありませんでした。 そう言うのは全然アリなんです。私の解釈は、それと何ら矛盾するものではなく、極めて整合的である。

またデブ尾のせいかよ。ろくでなし。全部、自分たちのせいだ。

 

MetaDriver:

...太い尻尾ろくでなし。すべての原因になっている

"調理法を知らないだけ... "なんて書かないでください。

知っています。

:)