理論から実践へ - ページ 295 1...288289290291292293294295296297298299300301302...1981 新しいコメント Alexander_K2 2018.04.03 13:55 #2941 Renat Akhtyamov: 平行線が交差する(サポートとレジスタンス)ってことですか?この値段!?まあ、帰国子女の積分とかね。 СанСаныч Фоменко 2018.04.03 14:29 #2942 Alexander_K2:この値段!?まあ、あるいはリターンの積分値ですね。エントロピーの使い方の1つの選択肢を紹介します。 npdeneqtest 密度の等質性に関するノンパラメトリック検定 npdeptest 一対一の依存性に対するノンパラメトリック・エントロピー検定 npsdeptest 系列非線形依存性のノンパラメトリックエントロピー検定 npsymtest 非対称性のノンパラメトリックエントロピー検定 npunitest 一変量密度等値に対するノンパラメトリックエントロピー検定 以下はそのドキュメントです。以下はその計算式である。Rとnpパッケージによるエントロピーに基づく推論:入門編 ファイル: np.zip 2331 kb Mykola Demko 2018.04.03 15:32 #2943 Alexander_K2:計算式はウィキペディアでしか見たことがない。 カオスの指標として、現在の確率分布を正規分布と比較するものです。その発想はない。 この言葉から私が理解したのは、「順序付きプロセスは正規分布を持ち得ない」ということです。 なぜ、そのようなことをおっしゃるのでしょうか。 カオスと正常の関係は? ZS 反論ではなく、疑問に思っているんです。 Alexander_K2 2018.04.03 16:00 #2944 Nikolay Demko:順序付きプロセスが正規分布を持つことはできません。 謎です!シーッ... だから私は、非エントロピーに関する哲学的な論文を読んでいるのです。 例えば-。 ファイル: q6v2dan_u.l._-_uqj1z9i6wyu_m6kr9_dr8rkg3ex.zip 149 kb Алексей Тарабанов 2018.04.03 23:36 #2945 Nikolay Demko:せめて、このナゲントロピーをどう計算するのか、ヒントをください。 だって、そんな悪態をついているんだから、わかってもらいたいんでしょう。 ZZZ 暇つぶしに全部ググってインデックスを作ったけど、常套句しか見つからなかった。非エントロピーは、秩序の指標であるエントロピーの反対語である。一晩中ググって得たのはこれだけ。ググってませんが、サポートラインとレジスタンスラインの交差は想像できません;ペンのことなら別ですが...。 Yuriy Asaulenko 2018.04.03 23:48 #2946 Алексей Тарабанов:ググってませんが、サポートラインとレジスタンスラインの交差は想像できません。マッシュアップの話なら話は別ですが...。コペンハーゲン的な解釈もあるそうです。どんなものでも入っている可能性がある。 Алексей Тарабанов 2018.04.04 00:02 #2947 Yuriy Asaulenko:彼らの解釈はコペンハーゲン解釈です。どんなものでも入っている可能性がある。尊敬する同業者の反応を待とうか。 Dr. Trader 2018.04.04 01:59 #2948 ウィキペディアは書いている - 物理学や数学(情報理論、数理統計 学)において、エントロピーの値とは数学的に反対の 量を指して【非エントロピー】という用語が使われることがある。 https://ru.wikipedia.org/wiki/Негэнтропия つまり、エントロピーを計算し、それを単純に負の符号で取ると非エントロピーになるのです。 Rでエントロピーを計算する、数十種類ある中で一番簡単な方法(経験エントロピー)。 1) 2 7 4 3 7 9 4 4 4 1 3 10 3 8 4 9 10 7 という数列があり、これに興味がある。 2) 各値の繰り返し回数を数える 1: 1 2: 1 3: 3 4: 7 7: 3 8: 1 9: 2 10: 2 新しい数値の列を得た 1 1 3 7 3 1 2 数値の合計を数える。 sum = 1 + 1 + 3 + 7 + 3 + 1 + 2 + 2 = 20(論理的には最初の項目の行の長さ ==) そして今度は割る: 1/20 1/20 3/20 7/20 3/20 1/20 2/20 得られる: 0.である。05 0.05 0.15 0.35 0.15 0.05 0.10 0.10 は、最初の項目からの系列の数値の分布密度である。 3) Entropy = - sum(freq*log(freq)) (R構文におけるベクトルの計算式。log() natural) H = - (0.05*log(0.05) + 0.05*log(0.05) + 0.15*log(0.15) + 0.35*log(0.35) + 0.15*log(0.15) + 0.05*log(0.05) + 0.10*log(0.10) + 0.10*log(0.10) ) Hならエントロピーになりますね。 4) ユーザが結果に対して演算を行いたい場合、そこにはスケールもある H / log(2) または H / log(10)5) Hに-1を掛けると非エントロピーになる。 From theory to practice アバランチ help fineturn EA Alexander_K2 2018.04.04 05:26 #2949 Dr. Trader:5) Hに-1を掛けると非エントロピーになる。そんな簡単なことなら、尊敬する数学者たちにこの問題を依頼することはなかっただろう。 もう一度言います。 これは、現在の増分の確率分布と、与えられたサンプルサイズに対して同じ期待値と分散を持つガウス分布との差である。 問題は、増分の分散が通常の公式(この掲示板に検索と不幸で溢れた数学の子供たちが知っている唯一のもの)で計算できないことです。ノンパラメトリックな手法を適用する必要がある :)) Alexander_K2 2018.04.04 05:42 #2950 さらに、この数式には哲学的・物理的な深い意味があるのです。プロセスの構造性、カオスからの乖離を測る指標となる。 皆さん!元気なオジサン、若者たち! 非エントロピーは、トレンド/フラットの状態を決定するパラメータ である!!! それを紹介します。 1...288289290291292293294295296297298299300301302...1981 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
平行線が交差する(サポートとレジスタンス)ってことですか?
この値段!?まあ、帰国子女の積分とかね。
この値段!?まあ、あるいはリターンの積分値ですね。
エントロピーの使い方の1つの選択肢を紹介します。
npdeneqtest 密度の等質性に関するノンパラメトリック検定
npdeptest 一対一の依存性に対するノンパラメトリック・エントロピー検定
npsdeptest 系列非線形依存性のノンパラメトリックエントロピー検定
npsymtest 非対称性のノンパラメトリックエントロピー検定
npunitest 一変量密度等値に対するノンパラメトリックエントロピー検定
以下はそのドキュメントです。以下はその計算式である。Rとnpパッケージによるエントロピーに基づく推論:入門編
計算式はウィキペディアでしか見たことがない。
カオスの指標として、現在の確率分布を正規分布と比較するものです。
その発想はない。
この言葉から私が理解したのは、「順序付きプロセスは正規分布を持ち得ない」ということです。
なぜ、そのようなことをおっしゃるのでしょうか。
カオスと正常の関係は?
ZS 反論ではなく、疑問に思っているんです。
順序付きプロセスが正規分布を持つことはできません。
謎です!シーッ...
だから私は、非エントロピーに関する哲学的な論文を読んでいるのです。
例えば-。
せめて、このナゲントロピーをどう計算するのか、ヒントをください。
だって、そんな悪態をついているんだから、わかってもらいたいんでしょう。
ZZZ 暇つぶしに全部ググってインデックスを作ったけど、常套句しか見つからなかった。非エントロピーは、秩序の指標であるエントロピーの反対語である。一晩中ググって得たのはこれだけ。
ググってませんが、サポートラインとレジスタンスラインの交差は想像できません;ペンのことなら別ですが...。
ググってませんが、サポートラインとレジスタンスラインの交差は想像できません。マッシュアップの話なら話は別ですが...。
コペンハーゲン的な解釈もあるそうです。どんなものでも入っている可能性がある。
彼らの解釈はコペンハーゲン解釈です。どんなものでも入っている可能性がある。
尊敬する同業者の反応を待とうか。
ウィキペディアは書いている - 物理学や数学(情報理論、数理統計 学)において、エントロピーの値とは数学的に反対の 量を指して【非エントロピー】という用語が使われることがある。
https://ru.wikipedia.org/wiki/Негэнтропия
つまり、エントロピーを計算し、それを単純に負の符号で取ると非エントロピーになるのです。
Rでエントロピーを計算する、数十種類ある中で一番簡単な方法(経験エントロピー)。
1) 2 7 4 3 7 9 4 4 4 1 3 10 3 8 4 9 10 7 という数列があり、これに興味がある。
2) 各値の繰り返し回数を数える
1: 1
2: 1
3: 3
4: 7
7: 3
8: 1
9: 2
10: 2
新しい数値の列を得た 1 1 3 7 3 1 2
数値の合計を数える。
sum = 1 + 1 + 3 + 7 + 3 + 1 + 2 + 2 = 20
(論理的には最初の項目の行の長さ ==)
そして今度は割る:
1/20 1/20 3/20 7/20 3/20 1/20 2/20
得られる:
0.である。05 0.05 0.15 0.35 0.15 0.05 0.10 0.10
は、最初の項目からの系列の数値の分布密度である。
3) Entropy = - sum(freq*log(freq)) (R構文におけるベクトルの計算式。log() natural)
H = - (0.05*log(0.05) + 0.05*log(0.05) + 0.15*log(0.15) + 0.35*log(0.35) + 0.15*log(0.15) + 0.05*log(0.05) + 0.10*log(0.10) + 0.10*log(0.10) )
Hならエントロピーになりますね。
4) ユーザが結果に対して演算を行いたい場合、そこにはスケールもある
H / log(2)
または
H / log(10)
5) Hに-1を掛けると非エントロピーになる。
5) Hに-1を掛けると非エントロピーになる。
そんな簡単なことなら、尊敬する数学者たちにこの問題を依頼することはなかっただろう。
もう一度言います。
これは、現在の増分の確率分布と、与えられたサンプルサイズに対して同じ期待値と分散を持つガウス分布との差である。
問題は、増分の分散が通常の公式(この掲示板に検索と不幸で溢れた数学の子供たちが知っている唯一のもの)で計算できないことです。ノンパラメトリックな手法を適用する必要がある :))
さらに、この数式には哲学的・物理的な深い意味があるのです。プロセスの構造性、カオスからの乖離を測る指標となる。
皆さん!元気なオジサン、若者たち!
非エントロピーは、トレンド/フラットの状態を決定するパラメータ である!!!
それを紹介します。