記事"安くて楽しいニューラルネットワーク - MetaTrader 5 でNeuroPro へリンク"についてのディスカッション - ページ 3

削除済み  

NS全般ではなく、記事そのものについて。何が引っかかるのか?フィッティングする係数の数は履歴の量に匹敵する。

係数の数を歴史の量と同じにしよう。そうすれば、調整は完璧になる。負けるトレードは一つもなく、履歴から最大限のものを引き出します。

NSの構築を乱暴な数の係数の選択としてアプローチするなら、そんないいものは必要ない。

ここにはもう一つの有用性がある-損失を伴う情報の圧縮である。履歴がたくさんあれば、履歴を近似的に記述する係数は少なくなる。一方、損失がなくても、はるかに優れた性能を持つ圧縮アルゴリズムはたくさんある。

 
zaskok:

NS全般ではなく、記事そのものについて。何が引っかかるのか?フィッティングする係数の数は履歴の量に匹敵する。

係数の数を歴史の量と同じにしよう。そうすれば、調整は完璧になる。負けるトレードは一つもなく、履歴から最大限のものを引き出します。

NSの構築を、乱暴な数の係数の選択としてアプローチするのであれば、そのような良いものが一体必要なのでしょうか。

おそらく記事を(注意深く)読んでいないだけだろう。入力数は24(時間足)、1層のニューロンは20、レイヤーは3。

履歴の例は5kバー。10kバーを設定しても、係数の数は変わりません。

もし私たちが話していることが理解できないのであれば、本当に必要ありません。

削除済み  
elugovoy:

おそらく記事を(注意深く)読んでいないだけだろう。入力数は24(時間足)、レイヤーのニューロンは20、レイヤーは3。

履歴の例は5kバーです。10kバーを設定しても、係数の数は変わりません。

私たちが話していることを理解していないなら、本当に必要ありません。

いくらでも自分を騙すことができる!

ソースコードを見て、調整された係数の数を数えてみてください。NSの説明では、ボソボソ、ボソボソと書いてあるが、本質はソースコードだ。

履歴の量を2倍にして、比率が崩れるのを見よ。そして、増えるたびにそうなる。

論文にあるオーガズムのシミュレーションは、示された結果である。そして、それが恐ろしい方法で得られたという事実は、誰も言っていることではない。

簡単に説明しよう。千の係数を持つアドバイザーのソースコードをあげよう。そして、それに匹敵する歴史の断片をあげよう。それがNSであるなどとは言わない。ただ、ソースと歴史の一部を渡すだけだ。

私がNSだと言えば、あなたはこのカルについて考えを変えるだろうか?結論を見てください。

削除済み  

ユニカム・ダイモンを使ってみよう。彼のExpert Advisorには調整可能な係数が12個も含まれていない。履歴の量は、これらの係数を調整するのに使う何千倍もある。だから、ダイミョンの頭に組み込まれたNSは、時として素晴らしい結果を生むことがある。だから、すべてのNSに対して激怒することはないのだ。しかし、この記事は読者をミスリードしている。

一方、われわれのクールなピプサリアンは、トレーディング・アルゴリズムを 構築するのにニューラル原理をまったく使っていない。NSのように足し算と掛け算という愚かな原理を使うこともない。おそらく、これが彼の結果とNSの形をした古典との顕著な違いの理由であろう。

 
faa1947:

面白い名前:ENCOG - 機械学習...いやあ、熱い。

ここに 挙げたツールは機械学習の一部に過ぎない。

理由もなく笑うのはバカの証拠 © Popular saying

機械学習に特に秀でた人へ:

  1. 私の投稿は、「ANNをdllでボルトオンする方法」という質問に対するものだ。もしあなたが、CranのパッケージをDLL経由でボルトオンする方法について答えを持っているなら、あなたの再回答が適切だろう。
  2. 機械学習ツールのかなりの部分は、どこでも使われることはないだろう。つまり、Cranにたくさんのパッケージがあるからといって、Cranに品格があるわけではないのだ。これらすべてのパッケージを塩漬けにするつもりか?
  3. 特定の作業ごとに、最も適したツールを選ぶのがよい。そのためには、Wekaをコンピュータにインストールし(ちなみにコマンドラインでR言語をサポートしている)、インターフェイスに組み込まれた「Experimenter」を使って、さまざまな機械学習手法でクロスバリデーションを有効にしたサンプルを実行することができる。最も良い結果を出したものが、手元のタスクに最も適していることが判明する。少なくとも、これはkaggle.comの常連がやっていることだ。結局のところ、最も時間がかかり、最も知能の低い作業をコンピュータに任せる方が、この場合、この場合、何が有効かを推測しようとするよりも良いのだ。
 
Reshetov:

理由のない笑いは愚かさの証 © Folk saying

特に才能ある機械学習の専門家のために:

  1. 私の投稿は、「ANNをdll経由でボルトオンする方法」という質問に対する答えである。もしあなたが、Cranのパッケージをdll経由でボルトオンする方法についての答えを持っているなら、あなたの再反論が適切だろう。
  2. 機械学習ツールのかなりの部分は、どこでも使われることはないだろう。つまり、Cranにたくさんのパッケージがあるからといって、Cranに品格があるわけではないのだ。これらすべてのパッケージを塩漬けにするつもりか?
  3. 特定の作業ごとに、最も適したツールを選ぶのがよい。そのためには、Wekaをコンピュータにインストールし(ちなみにコマンドラインでR言語をサポートしている)、インターフェイスに組み込まれた「Experimenter」を使って、さまざまな機械学習手法でクロスバリデーションを有効にしたサンプルを実行することができる。最も良い結果を出したものが、手元のタスクに最も適していることが判明する。少なくとも、kaggle.comの常連はこうしている。結局のところ、最も時間がかかり、最も知能の低い作業をコンピューターに任せる方が、あれこれと何が有効かを推測しようとするよりも良いのだ。

1.CRANにねじ込むような問題はない。年以上、すべてcodobaseにある。

2.2.量の多さは、アプローチの多様性と開発の速さを物語っている。CRANにあるパッケージの質は素晴らしい。

3.WEKAは...の一つである。トレーディングに使用できる機械学習パッケージの選択について話しているのであれば、caret.そして手始めにRattle。ゼロから始めれば、15分程度で立ち上げることができる。NSとランダムフォレストを比較した結果を上に掲載した。NSは控えめな結果以上のものを与えてくれる。記事も 書いた。ラトルを試してみよう。最大で2-3パッケージをピックアップすれば満足できるだろう。そしてNSを永久に捨ててください。手始めに、別のアタッチメントをお勧めします。

ファイル:
PredictTrend.zip  858 kb
 
faa1947:


2.その量は、アプローチの多様性と急速な発展を示している。CRANにあるパッケージの質は素晴らしい。


いくつかのパッケージは他のパッケージの手法を単に複製している。例えば、全てのSVMは同じ台湾のlibsvmライブラリからの移植に過ぎない。だから、SVMがCran、Weka、Encog、あるいはその他のパッケージに組み込まれていても、まったく違いはない。同じ設定で同じ結果になる。

faa1947:


トレーディングで使用できる機械学習パッケージの選択について話しているのであれば、caret.


繰り返しになるが、特定のタスクには特定のツールを選ぶべきである。トレーディングとは、多くの株式市場戦略や戦術の一般化された名称に過ぎない。そのため、すべてを一つの傘の下で切り分けることは不可能なのです。

faa1947:


NSとランダムフォレストを比較した結果を上に掲載した。


これは結果ではなく、病院の平均気温をトレーニングサンプルに合わせて調整したような、でたらめなものです。


結果は、最低でもサンプルをトレーニングサンプルとテストサンプルに分け、最大でもクロスバリデーションを適用した場合のものです。

 

私はNSを支持すると思う。ランダムウッドが 急にファッショナブルになったからといって、NSが悪いということにはならない。同じ卵で、横顔だけだ。多少なりとも適切な比較をするために、メッシュの委員会を作り、ブースティングをオンにすれば、同じランダムな森ができる。NSは、他のほとんどのアルゴリズムを実装できることで知られている。

いずれにせよ、成功の99%はツールではなく、データの選択と準備にある。

 
marketeer:

私はNSを支持しようと思う。ランダムフォレストが急に流行り出したからといって、NSの方が悪いということにはならない。

ランダムフォレストは流行の現象ではなく、最初の試みで納得のいく結果が得られるツールです。この分類器は初心者にも経験者にも使われる。初心者は、手法が非常に単純なので、基本ツールとして使用します。そして、より経験豊富なユーザーは、どのような方向に進めばよいかを理解するために、RFを使って問題を解決し始めます。


いずれにせよ、成功の99%はツールではなく、データの選択と準備にある。

大げさなことはできない©人々の言葉

バイナリ分類器を使って、重回帰の 問題をどのように解決するのか、興味深いですね。

 
Reshetov:


これは結果ではなく、訓練サンプルに調整された病院の平均気温のようなでたらめなものである。


結果とは、少なくともサンプルがトレーニングサンプルとテストサンプルに分けられ、せいぜいクロスバリデーションが適用された場合である。

私はでたらめなことはしない。

証明する。

掲載された結果は常に「サンプル外のトレーニング」データを参照している。これはラトルでは以下のように行われる:

1. 元のセットを3分割する:70-15-15%

2.トレーニングは70%の部分で行われ、これをトレーニングと呼ぶ。ここで非常に重要なニュアンスがある。この70%から、トレーニングデータの約2/3がランダムに選択される。トレーニングはこのデータに対して行われる。モデルのパフォーマンス情報は、残りの70% * 1/3のトレーニング・サンプル・データで得られますが、もちろんこれもランダムな行の集合です。この部分はOOB - out of bagと呼ばれる。つまり、形式的には同じデータセットが訓練と評価に使用されているが、訓練と評価では異なる行が使用されている。

その後、Evaluateタブに移動し、残りの2回分の15%に学習済みモデルを使用し、OOBと比較することができる。結果が同じなら、望みはある。ラトルはアイデアをテストするためのツールではあるが、このテストの質は議論中の記事よりもはるかに高いということだ(著者に謝ろう)。

というのも、モデルのオーバートレーニング(過剰適合)を証明するものがなく、私が挙げたトレーニングサンプル以外のテスト用の3つのセットもそのような証明にはならないからである。つまり、この変数セットを使ったモデルが上記のスキームに従ってテストでき、そのテスト結果が信頼できるという意味で、初期変数のセットが満たす基準が必要なのです。