引用における依存性統計(情報理論、相関などの特徴選択法) - ページ 9 12345678910111213141516...74 新しいコメント Hide 2011.09.05 12:56 #81 Avals: 私には関係ありません))) 独立性が求められるなら、なぜ条件付きエントロピーなどというものがあるのでしょうか? アルファベットの記号の並びが独立していない 場合(例えば、フランス語では「q」の後にはほとんど「u」が続くし、ソ連の新聞では「前衛」の後にはたいてい「生産」または「労働」が続いた)、そのような記号の並びが持つ情報量(ひいてはエントロピー)は明らかに少なくなってしまうのだ。このような事実を説明するために、条件付きエントロピーが用いられて いる。https://ru.wikipedia.org/wiki/Информационная_энтропия。 そうそう、条件付きエントロピー。とにかく結果の閉じた空間があることが明確なのでしょうか?そして、すべての文字がかなり明確にカウントされているなど。実際には、26文字のアルファベットを何音節のアルファベットに拡張するかという単純な話なのですが。それは大まかな目安です。 Avals 2011.09.05 12:58 #82 HideYourRichess: そうそう、条件付きエントロピー。とにかくそこに結果の閉じた空間があることは確かなのでしょうか?そして、すべての文字がかなり明確にカウントされているなど。実際には、26文字のアルファベットを何音節のアルファベットに拡張するかという単純な話なのですが。それは大まかな目安です。 ということで、およそエントロピーのポイントになります)))あるいは、完璧なアーカイバによる圧縮の度合い。 Hide 2011.09.05 13:10 #83 Mathemat: HideYourRichess さん、申し訳ありませんが、深みにはまったようです。全くナンセンスなことをしつこく言うので、今更何を議論したらいいのかわかりません。あなたの推理の論理 は、私にはまったく理解できない。 私はそれを信じないでしょう。と述べているソースを示してください。 ベルヌーイから派生した独立検定の概念、それでいいのでしょうか?あるいはここで、大数の法則の定式化。 等しく分布し、無相関の確率変数の無限列があるとする... 独立等分布の確率変数の無限列があるとする... Hide 2011.09.05 13:20 #84 Avals: ということで、およそエントロピーのポイントになります)))あるいは、完璧なアーカイバによる圧縮の度合いで 既知のアルファベットとの関係においてのみ。 Sceptic Philozoff 2011.09.05 13:20 #85 HideYourRichess さん、すべてのテラバーがベルヌーイ級数や大数の法則に還元されると思ったら、それは大きな間違いです。 ふざけてないで、条件付き エントロピーや相互情報を求める際に直接利用される条件付き確率の 概念を熟知してください。 Hide 2011.09.05 13:30 #86 Mathemat: HideYourRichess さん、もしあなたがテリバー全体がベルヌーイ級数や大数の法則に還元されると考えているなら、それは大間違いです。 思うのではなく、事実として知っているのです。 Alexey Burnakov 2011.09.05 13:30 #87 HideYourRichess: ベルヌーイから派生した独立検定の概念、それでいいのでしょうか?あるいはここで、大数の法則の定式化。 等しく分布し、無相関の確率変数の無限列があるとする...独立等分布の確率変数の無限列が あるとする... シャノン 自身の出版物を手に取って読んでみることをお勧めします。このスレッドの反対派は、特に理由もなく「喧嘩」を売っているだけだと思います。私は大学で確率論を学びましたが、学歴は数学ではありません。私の記憶では、重要な特徴は、研究対象となる確率変数の定常性である。 そして、私自身の、数学的でない教育から、さらに言います。TIが開発されたコミュニケーション理論を応用してみよう。信号を伝える電線がありますが、その意味は私たちにとって重要ではありません。この電線における情報損失を計算したいので、送信元と送信先(right: transmitter and receiver)を2つの確率変数と考える。アプリオリに繋がっているのでは?I note - プロバブルでつながっていることが前提です。それに対して、あなたは何と言いますか? Hide 2011.09.05 13:32 #88 Mathemat: HideYourRichess。 ふざけてないで、条件付き エントロピーや相互情報を求める際に直接利用される条件付き確率の 概念を熟知してください。 独立した事象の連続について話していることが理解できないのでしょうか? Alexey Burnakov 2011.09.05 13:38 #89 HideYourRichessの ためにもう一つ追加すること。 相互情報量は、非常に強い関連性と相関性を持つ変数についてカウントし、情報量そのものとその損失の両方を決定する。つまり、物理レベルでの事象の結合が、理論全体の要素になっているわけです。それともシェンノムの勘違いか・・・。 Sceptic Philozoff 2011.09.05 13:54 #90 Mathemat: HideYourRichess, если Вы думаете, что весь тервер сводится к сериям Бернулли или закону больших чисел, то Вы сильно ошибаетесь. そんなことはない、事実そうなのだから。 あれが5本!?2つ欲しい!HideYourRichess: あなたは、私たちがそこで独立した一連の出来事について話していることに気づいていないのですか? どのような独立したイベントのことをおっしゃっているのですか?ソースからのアルファベット文字列について?いや、必ずしも独立しているわけではないことは、すでに説明したとおりです。通常のロシア語文学のテキストは、依存文字列である。もしこれらが独立していたら、文学的なテキストはアーカイバによって実際よりもずっとひどい圧縮をされてしまうでしょう。ある文学的なテキストを取り出してシャッフルし、原文とシャッフルしたテキストのアーカイブ結果を比較します。 それとも、音源と受信機のアンサンブルは独立変数だと考えているのでしょうか? 12345678910111213141516...74 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
私には関係ありません))) 独立性が求められるなら、なぜ条件付きエントロピーなどというものがあるのでしょうか?
アルファベットの記号の並びが独立していない 場合(例えば、フランス語では「q」の後にはほとんど「u」が続くし、ソ連の新聞では「前衛」の後にはたいてい「生産」または「労働」が続いた)、そのような記号の並びが持つ情報量(ひいてはエントロピー)は明らかに少なくなってしまうのだ。このような事実を説明するために、条件付きエントロピーが用いられて いる。https://ru.wikipedia.org/wiki/Информационная_энтропия。
そうそう、条件付きエントロピー。とにかくそこに結果の閉じた空間があることは確かなのでしょうか?そして、すべての文字がかなり明確にカウントされているなど。実際には、26文字のアルファベットを何音節のアルファベットに拡張するかという単純な話なのですが。それは大まかな目安です。
ということで、およそエントロピーのポイントになります)))あるいは、完璧なアーカイバによる圧縮の度合い。
HideYourRichess さん、申し訳ありませんが、深みにはまったようです。全くナンセンスなことをしつこく言うので、今更何を議論したらいいのかわかりません。あなたの推理の論理
は、私にはまったく理解できない。
私はそれを信じないでしょう。と述べているソースを示してください。
ということで、およそエントロピーのポイントになります)))あるいは、完璧なアーカイバによる圧縮の度合いで
HideYourRichess さん、すべてのテラバーがベルヌーイ級数や大数の法則に還元されると思ったら、それは大きな間違いです。
ふざけてないで、条件付き エントロピーや相互情報を求める際に直接利用される条件付き確率の 概念を熟知してください。
HideYourRichess さん、もしあなたがテリバー全体がベルヌーイ級数や大数の法則に還元されると考えているなら、それは大間違いです。
思うのではなく、事実として知っているのです。
ベルヌーイから派生した独立検定の概念、それでいいのでしょうか?あるいはここで、大数の法則の定式化。 等しく分布し、無相関の確率変数の無限列があるとする...独立等分布の確率変数の無限列が あるとする...
シャノン 自身の出版物を手に取って読んでみることをお勧めします。このスレッドの反対派は、特に理由もなく「喧嘩」を売っているだけだと思います。私は大学で確率論を学びましたが、学歴は数学ではありません。私の記憶では、重要な特徴は、研究対象となる確率変数の定常性である。
そして、私自身の、数学的でない教育から、さらに言います。TIが開発されたコミュニケーション理論を応用してみよう。信号を伝える電線がありますが、その意味は私たちにとって重要ではありません。この電線における情報損失を計算したいので、送信元と送信先(right: transmitter and receiver)を2つの確率変数と考える。アプリオリに繋がっているのでは?I note - プロバブルでつながっていることが前提です。それに対して、あなたは何と言いますか?
HideYourRichess。
ふざけてないで、条件付き エントロピーや相互情報を求める際に直接利用される条件付き確率の 概念を熟知してください。
HideYourRichessの ためにもう一つ追加すること。
相互情報量は、非常に強い関連性と相関性を持つ変数についてカウントし、情報量そのものとその損失の両方を決定する。つまり、物理レベルでの事象の結合が、理論全体の要素になっているわけです。それともシェンノムの勘違いか・・・。
HideYourRichess, если Вы думаете, что весь тервер сводится к сериям Бернулли или закону больших чисел, то Вы сильно ошибаетесь.
そんなことはない、事実そうなのだから。
どのような独立したイベントのことをおっしゃっているのですか?ソースからのアルファベット文字列について?いや、必ずしも独立しているわけではないことは、すでに説明したとおりです。通常のロシア語文学のテキストは、依存文字列である。もしこれらが独立していたら、文学的なテキストはアーカイバによって実際よりもずっとひどい圧縮をされてしまうでしょう。ある文学的なテキストを取り出してシャッフルし、原文とシャッフルしたテキストのアーカイブ結果を比較します。
それとも、音源と受信機のアンサンブルは独立変数だと考えているのでしょうか?