トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 521 1...514515516517518519520521522523524525526527528...3399 新しいコメント Vladimir Perervenko 2017.11.10 10:35 #5201 グリゴーリイ チャーニンニューロンの活性化関数について読む。出力に好きな値を与えることができますが、活性化関数を間違えると負の値が出力されます。これは通常、双曲線上の接線である。これではソフトマックス損失関数が正しく動作しません。ラ イブラリや損失関数の実装に大きく依存しますが。例えば、Tensorflowの損失関数softmaxの出力ニューロンには、活性化関数を持たせてはいけません。また、学習したネットワークを正しく使用するために、ソフトマックスの活性化を追加する必要があります。ALGLIBとは一緒に仕事をしたことがないので、もしかしたら何か間違った ことをしたのかもしれません。いずれにせよ、ソフトマックスを使った学習済みネットワークが負の値を与えることはないはずだ。ソフトマックスは損失関数ではありません。あなたは何かに迷っている。ソフトマックスは、分類タスクのための出力層活性化関数である。男を混乱させてはいけない、彼自身が混乱する。Alglibのご利用は、ご自身の責任でお願いします。全部Rstudioでやればいいじゃん。グッドラック Forester 2017.11.10 10:41 #5202 Dr.トレーダーこれは、あるクラスが他のクラスに比べて非常に多くの学習例を持つ場合である。例えば、「買い」の学習例は2000個、「売り」の学習例は1000個だけです。ニューロンは常に「買い」を返すことができ、この場合、66%の確率で正解となる。各クラスの学習例数を等しくするのが良い。NAクラス - 頻繁に取引される場合は50%、稀に取引される場合は99%、が優先されます。でも、3rdにして、NAクラス1が詰まったんです。なぜ、何もする必要がない時のトレーニング例を記事にしないのか不思議です。なぜなら、適切な瞬間に何もしないことも重要で、通常その瞬間は、トレードが損失につながるときだからです。 一時停止の方法を学ばないまま、NSは取引を開始し、預金を失ってしまうかもしれません。 Grigoriy Chaunin 2017.11.10 10:45 #5203 ウラジミール・ペレヴェンコソフトマックスは損失関数ではありません。あなたは何かに迷っている。ソフトマックスは、分類タスクのための出力層活性化関数である。その人を混乱させないでください、彼は自分自身を混乱させるでしょう。Alglibのご利用は、ご自身の責任でお願いします。全部Rstudioでやればいいじゃん。グッドラック正確には、ソフトマックス・クロステントロピーと呼ばれる損失関数である。そうですね、明確ではありませんでした。 Forester 2017.11.10 10:46 #5204 ウラジミール・ペレヴェンコソフトマックスは損失関数ではありません。あなたは何かに迷っている。ソフトマックスは、分類タスクのための出力層活性化関数である。その人を混乱させないでください、彼は自分自身を混乱させるでしょう。Alglibのご利用は、ご自身の責任でお願いします。全部Rstudioでやればいいじゃん。グッドラック ほとんどの場合、私はあなたの次の記事の後にRバインディングを使用します(端末との接続があるところ)。 Forester 2017.11.10 10:50 #5205 ところで、興味深いことに、上記の例からバイセル NA 0.10302356, 0.01091621,0.88606040 0.09705416, 0.01083526, 0.89211080 0.08283979, 0.12548789,0.791672471.02522414,-0.00119697,-0.02403573 0.09498582, 0.01529507,0.889719171.01878489,-0.00111341,-0.01767998 0.07906346, 0.05960769,0.86132762 0.00201949, 0.00497863,0.99300189各行の和は1である。(チェックした上位4名)。つまり、和(=確率)が1にもなるソフトマックスのようなものです。しかし、これはNS-リニア出力による回帰で行われました。 Dr. Trader 2017.11.10 11:36 #5206 エリブラリウスNAクラス - 取引頻度が高い場合の50%から、取引頻度が低い場合の99%まで、優勢になります。教師クラスを作成 するために何らかの指標を取り、その値の一部もNAに置き換えるような、ランダムな教師へのクラス配分は非常に危険です。たとえ、良い予測因子と良いクラスがあり、新しいデータで良い結果を保持していたとしても、クラスの値をいじろうとすると、モデルが完全に壊れてしまうことがあります。予測変数の指標とクラスの指標を見つけることで、新しいデータでもモデルが利益を出し続けることができ、大きな成功を収めました。私は、次のバーの色(つまり、買い/売り)の2つの簡単なクラスを取ることをお勧めします開始します。少なくとも10000の学習例(履歴バー)を取り、モデルを学習させ、次の履歴の10000バー(学習時にモデルにとって未知であったもの)で結果を評価します。新旧のデータでモデルの精度を同じレベルに維持できる予測因子を見つけることができたら、教師の授業の指標を選び始めることができるのです。そして、最初に利用可能な指標を取るだけでは、新しいデータに対してモデルの精度が保てないことが判明するのです。なぜ、ある指標は教師に役立ち、ある指標はそうでないのか、私にはわかりません。 Maxim Dmitrievsky 2017.11.10 14:11 #5207 エリブラリウスALGLIBのNSのSOFTMAX版で何か問題がある。すべての回答が最初の出力に偏っている(私の場合はBUYです)。 同じNSのデータで、3つの出力を持つ回帰(線形活性化)は、より信頼性の高い結果をもたらす。バイセル NA 0.10302356, 0.01091621,0.88606040 0.09705416, 0.01083526, 0.89211080 0.08283979, 0.12548789,0.791672471.02522414,-0.00119697,-0.02403573 0.09498582, 0.01529507,0.889719171.01878489,-0.00111341,-0.01767998 0.07906346, 0.05960769,0.86132762 0.00201949, 0.00497863,0.99300189を0.5以上にすると、もっともらしい答えが得られるでしょう。ちなみにLesaも1回目の出力でスカスカになりました。2つの出力の合計を1にしたのですか? よくわかりませんが、私の場合はうまくいきました、スキューはありません。ソフトマックスがよかった。そうそう、ソフトマックスでは、0から1への入力の比率を決めていたっけ。一般にフォレストは回帰と分類で常に明確に機能する。時々、買いか売りかのみのシグナルが出るが、トレーニングサンプルを掘ってみたら、例に偏りがあったので、仕方ない(一定間隔で再トレーニングするので、サンプルに何が出るか事前に分からないため)。また、足場が外挿できないことも忘れてはいけません。未来の既知の価値観をすべて教えなければならないのです。 Maxim Dmitrievsky 2017.11.10 14:33 #5208 ちなみに、その必要もなさそうです。データ前処理収束速度と解の質を向上させるために、ALGLIB はデータの前処理(学習セットの標準化)を実装しています。データがニューラルネットワークに 転送される前に、自動的に前処理が行われ、ネットワークの結果は逆変換される。 Maxim Dmitrievsky 2017.11.10 14:37 #5209 ここで 、掛け算表のNSチェックを行います。同じものを足場 用にしたところ、問題なく使用できました Библиотеки: ALGLIB - библиотека численного анализа 2012.10.12www.mql5.com Статьи и техническая библиотека по автоматическому трейдингу: Библиотеки: ALGLIB - библиотека численного анализа Forester 2017.11.10 15:11 #5210 マキシム・ドミトリエフスキー 2つの出力の合計を1にしたのですか? よくわかりませんが、私の場合はうまくいきました、スキューはありません。ソフトマックスがよかった。そうそう、ソフトマックスでは、0から1までの入力の配分を覚えている限りでは、0から1までの配分をしました。一般にフォレストは回帰と分類で常に明確に機能する。時々、買いか売りかのみのシグナルが出るが、トレーニングサンプルを掘ってみたら、例に偏りがあったので、仕方ない(一定間隔で再トレーニングするので、サンプルに何が出るか事前に分からないため)。また、足場は外挿できないことを忘れてはいけません。今後、すべての既知の値をトレーニングする必要があります。 3つの出力の合計が1、いや、合計ではなく、出力のうち1つだけが1、残りは0になっているのですが。 入力の正規化はしていない、必要ないことは下で確認済みですね。乗算表を確認しました(ただし、ソフトマックスではありません)。 もしsoftmaxがうまくいったのであれば、もう少し回してみると、うまくいくかもしれません(全く同じデータで、lin.出力による回帰は当然のように機能しますが)。 1...514515516517518519520521522523524525526527528...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
ニューロンの活性化関数について読む。出力に好きな値を与えることができますが、活性化関数を間違えると負の値が出力されます。これは通常、双曲線上の接線である。これではソフトマックス損失関数が正しく動作しません。ラ イブラリや損失関数の実装に大きく依存しますが。例えば、Tensorflowの損失関数softmaxの出力ニューロンには、活性化関数を持たせてはいけません。また、学習したネットワークを正しく使用するために、ソフトマックスの活性化を追加する必要があります。ALGLIBとは一緒に仕事をしたことがないので、もしかしたら何か間違った ことをしたのかもしれません。いずれにせよ、ソフトマックスを使った学習済みネットワークが負の値を与えることはないはずだ。
ソフトマックスは損失関数ではありません。あなたは何かに迷っている。ソフトマックスは、分類タスクのための出力層活性化関数である。男を混乱させてはいけない、彼自身が混乱する。
Alglibのご利用は、ご自身の責任でお願いします。全部Rstudioでやればいいじゃん。
グッドラック
これは、あるクラスが他のクラスに比べて非常に多くの学習例を持つ場合である。例えば、「買い」の学習例は2000個、「売り」の学習例は1000個だけです。ニューロンは常に「買い」を返すことができ、この場合、66%の確率で正解となる。各クラスの学習例数を等しくするのが良い。
NAクラス - 頻繁に取引される場合は50%、稀に取引される場合は99%、が優先されます。でも、3rdにして、NAクラス1が詰まったんです。
なぜ、何もする必要がない時のトレーニング例を記事にしないのか不思議です。なぜなら、適切な瞬間に何もしないことも重要で、通常その瞬間は、トレードが損失につながるときだからです。
一時停止の方法を学ばないまま、NSは取引を開始し、預金を失ってしまうかもしれません。
ソフトマックスは損失関数ではありません。あなたは何かに迷っている。ソフトマックスは、分類タスクのための出力層活性化関数である。その人を混乱させないでください、彼は自分自身を混乱させるでしょう。
Alglibのご利用は、ご自身の責任でお願いします。全部Rstudioでやればいいじゃん。
グッドラック
正確には、ソフトマックス・クロステントロピーと呼ばれる損失関数である。そうですね、明確ではありませんでした。
ソフトマックスは損失関数ではありません。あなたは何かに迷っている。ソフトマックスは、分類タスクのための出力層活性化関数である。その人を混乱させないでください、彼は自分自身を混乱させるでしょう。
Alglibのご利用は、ご自身の責任でお願いします。全部Rstudioでやればいいじゃん。
グッドラック
ところで、興味深いことに、上記の例から
バイセル NA
0.10302356, 0.01091621,0.88606040
0.09705416, 0.01083526, 0.89211080
0.08283979, 0.12548789,0.79167247
1.02522414,-0.00119697,-0.02403573
0.09498582, 0.01529507,0.88971917
1.01878489,-0.00111341,-0.01767998
0.07906346, 0.05960769,0.86132762
0.00201949, 0.00497863,0.99300189
各行の和は1である。(チェックした上位4名)。つまり、和(=確率)が1にもなるソフトマックスのようなものです。しかし、これはNS-リニア出力による回帰で行われました。
NAクラス - 取引頻度が高い場合の50%から、取引頻度が低い場合の99%まで、優勢になります。
教師クラスを作成 するために何らかの指標を取り、その値の一部もNAに置き換えるような、ランダムな教師へのクラス配分は非常に危険です。
たとえ、良い予測因子と良いクラスがあり、新しいデータで良い結果を保持していたとしても、クラスの値をいじろうとすると、モデルが完全に壊れてしまうことがあります。予測変数の指標とクラスの指標を見つけることで、新しいデータでもモデルが利益を出し続けることができ、大きな成功を収めました。
私は、次のバーの色(つまり、買い/売り)の2つの簡単なクラスを取ることをお勧めします開始します。少なくとも10000の学習例(履歴バー)を取り、モデルを学習させ、次の履歴の10000バー(学習時にモデルにとって未知であったもの)で結果を評価します。新旧のデータでモデルの精度を同じレベルに維持できる予測因子を見つけることができたら、教師の授業の指標を選び始めることができるのです。そして、最初に利用可能な指標を取るだけでは、新しいデータに対してモデルの精度が保てないことが判明するのです。なぜ、ある指標は教師に役立ち、ある指標はそうでないのか、私にはわかりません。
ALGLIBのNSのSOFTMAX版で何か問題がある。すべての回答が最初の出力に偏っている(私の場合はBUYです)。
同じNSのデータで、3つの出力を持つ回帰(線形活性化)は、より信頼性の高い結果をもたらす。
バイセル NA
0.10302356, 0.01091621,0.88606040
0.09705416, 0.01083526, 0.89211080
0.08283979, 0.12548789,0.79167247
1.02522414,-0.00119697,-0.02403573
0.09498582, 0.01529507,0.88971917
1.01878489,-0.00111341,-0.01767998
0.07906346, 0.05960769,0.86132762
0.00201949, 0.00497863,0.99300189
を0.5以上にすると、もっともらしい答えが得られるでしょう。
ちなみにLesaも1回目の出力でスカスカになりました。
2つの出力の合計を1にしたのですか? よくわかりませんが、私の場合はうまくいきました、スキューはありません。ソフトマックスがよかった。
そうそう、ソフトマックスでは、0から1への入力の比率を決めていたっけ。
一般にフォレストは回帰と分類で常に明確に機能する。時々、買いか売りかのみのシグナルが出るが、トレーニングサンプルを掘ってみたら、例に偏りがあったので、仕方ない(一定間隔で再トレーニングするので、サンプルに何が出るか事前に分からないため)。また、足場が外挿できないことも忘れてはいけません。未来の既知の価値観をすべて教えなければならないのです。
ちなみに、その必要もなさそうです。
データ前処理
収束速度と解の質を向上させるために、ALGLIB はデータの前処理(学習セットの標準化)を実装しています。データがニューラルネットワークに 転送される前に、自動的に前処理が行われ、ネットワークの結果は逆変換される。
ここで 、掛け算表のNSチェックを行います。
同じものを足場 用にしたところ、問題なく使用できました
2つの出力の合計を1にしたのですか? よくわかりませんが、私の場合はうまくいきました、スキューはありません。ソフトマックスがよかった。
そうそう、ソフトマックスでは、0から1までの入力の配分を覚えている限りでは、0から1までの配分をしました。
一般にフォレストは回帰と分類で常に明確に機能する。時々、買いか売りかのみのシグナルが出るが、トレーニングサンプルを掘ってみたら、例に偏りがあったので、仕方ない(一定間隔で再トレーニングするので、サンプルに何が出るか事前に分からないため)。また、足場は外挿できないことを忘れてはいけません。今後、すべての既知の値をトレーニングする必要があります。
入力の正規化はしていない、必要ないことは下で確認済みですね。乗算表を確認しました(ただし、ソフトマックスではありません)。
もしsoftmaxがうまくいったのであれば、もう少し回してみると、うまくいくかもしれません(全く同じデータで、lin.出力による回帰は当然のように機能しますが)。