Центральной проблемой прикладной статистики является проблема принятия статистических гипотез. Долгое время считалось, что эта задача не может быть решена. Ситуация изменилась с появлением метода собственных координат. Это очень красивый и мощный инструмент структурного исследования сигнала, позволяющий увидеть больше, чем доступно методами современной прикладной статистики. В статье рассмотрены вопросы практического использования данного метода и приведены программы на языке MQL5. Рассмотрена задача идентификации функций на примере распределения, полученного Хилхорстом и Шером.
現時点では、それは有益ですか?
記事の例は実証的なもので、極めて冗長である。
特にランダムフォレストと機械学習モデル 全般(ニューラルネットワークはこのクラスのアルゴリズムに属する)について言えば、それらはトレーディングで広く使われている。
追記フォーラムにはNS支持者が多い。つまり、これらはトレーディングにとって最も効率的なアルゴリズムではないのです。ランダムフォレストの方がはるかに効率的です。
記事の例は実証的なもので、極めて冗長だ。
特にランダムフォレストと機械学習モデル一般(ニューラルネットワークはこのクラスのアルゴリズムに属する)の応用について言えば、それらはトレーディングで広く使われている。
追記フォーラムにはNS支持者が多い。ですから、これらはトレーディングにとって最も効率的なアルゴリズムではありません。ランダムフォレストの方がはるかに効果的です。
どこにいたの?
しばらく連絡がない?
どこにいたの?
しばらく連絡がなかったね。
もっと詳しい資料へのリンクはありますか?
もっと詳しい資料へのリンクはありますか?
このトピックに関する文献はたくさんあり、ほとんどが英語です。
私は "Predicting Trends "という本を書きましたが、そこでは分類の問題が記事よりもはるかに詳細に議論されています。この本には、技術文書の直訳(約30%)、外国為替市場での分類モデルの使用例(テキストの約20%)、分類モデル構築の思想の説明が含まれています。また、分類モデルに基づいたExpert Advisorを構築するための一連のステップについても解説しています。
詳細は添付ファイルにて。
追記この本には、このテーマに関するかなり広範な文献リストがある。
vlad19492014.11.23 15:
ヴラドへ
機械学習アルゴリズムの効率性についての議論はすべて、ある条件のもとで意味を成します。私の実務では、訓練されていないモデルを得ることは非常に困難です。
モデルの過剰訓練は、予測変数の誤ったセットのために発生し、犬全体が予測変数の中に埋もれてしまう。したがって、すべての努力は予測変数の選択に向けられ、次にモデルに向けられるべきである。
私は、特定のターゲット変数に対する予測変数の適合性の正式な兆候を見つけることができたようだ。もしこのことに興味があれば、喜んで個人的に議論しよう。
vlad19492014.11.23 15:
ヴラドへ
機械学習アルゴリズムの効率性についての議論はすべて、ある条件のもとで意味を成します。私の実務では、訓練されていないモデルを得ることは非常に困難です。
モデルの過剰訓練は、予測変数の誤ったセットのために発生し、犬全体が予測変数の中に埋もれてしまう。したがって、すべての努力は予測変数の選択に向けられ、次にモデルに向けられるべきである。
私は、特定のターゲット変数に対する予測変数の適合性の正式な兆候を見つけることができたようだ。もしこのことにご興味があれば、個人的に議論させていただければ幸いです。
тттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттт
もちろん興味はある。書く
vlad19492014.11.23 15 :
http://a ppliedpredictivemodeling.com/blog/2014/11/11/some-thoughts-on-do-we-need-hundreds-of-classifiers-to-solve-real-world-classification-problems
私はこのリンクを注釈付きでブログに掲載した。誰も興味を示さなかった。以下は 記事そのものである。
モデルの過剰訓練は,予測変数のセットが間違っているために発生し,犬全体がその中に埋もれてしまう.したがって,すべての努力は予測変数の選択に向けられ,次にモデルに向けられるべきである.
モデルと予測変数の選択は相互に関連している.まずモデルを選択し、次にこのモデルに基づいて予測因子を選択し、予測において最も "有用性 "の低い予測因子を同じモデルでスクリーニングする。多くの論文や教科書は,そうではないと教えているが:まず,これらの予測変数とターゲット系列(出力)の間の関係を計算する何らかの方法を用いて予測変数を選択する.スクリーニングの最も一般的な方法は,予測変数と出力間の相関係数と相互情報量である.そして、予測変数がどのように選択されたかとは無関係なモデルが選択されます。考えてみると(計量経済学の 教科書はこれを教えてくれないので、自分で考えなければならない)、出力との相関係数によって予測変数を選択する方法は、本質的に線形回帰モデル(LRC)で誤差が最小になる予測変数を選択する。出力との相互情報量によって予測変数を選択する手法は,本質的に,ナダラヤ・ワトソン回帰に基づくモデル(GRNNという難しい名前)で最も小さい誤差を与える予測変数を選択する.