市場のエチケット、あるいは地雷原でのマナー - ページ 43 1...363738394041424344454647484950...104 新しいコメント 削除済み 2009.06.04 09:11 #421 Neutron >> : 慎重な人ほどいい人!締め付けの手順が複雑でなく、NSトレーニングが苦にならない--効果的な方法である。 最適な値が得られないというのは、私たちBPのハッタリです。正弦波を予測するのならわかるんですけどね~。- そうですね、最適な値というのはありますね。しかし、マーケット・チョッピーにおけるそれらは何なのでしょうか?今、最適なものがそこにあり、次のステップでは(あなたが予測している)、そこに......。を、全力で「ここ」に探してきたんですね。つまり、厳密な定位問題は存在せず、各ステップで再トレーニングを行うことで満足に解けるのです。 逆もまた真なりで、グローバルミニマム、あるいは少なくともその近傍が見つからなければ、各ステップでの学習は満足に行えないかもしれない。この問題を少し研究したところ、個人的には自己欺瞞のようなものを感じました。両方のサンプルで誤差が漸近的に発散するように見えるのに、異なる時間間隔で同じ構成のネットワークが全く逆の売買シグナルを出した場合です。数学的な期待値では勝っていても、結局はカジノをやっているという結論になった。そして、これらすべては、それぞれ、最初の重み付け係数のせいで、こういう結論になったのです。これが私の考えです:) Neutron 2009.06.04 09:12 #422 registred писал(а)>> ちなみに、私の観測の結果、グリッドの学習が早く進む最適な重みのランダム化は、区間[-0.07; +0.07]であることがわかりました。なぜそうなるのかは分かりませんが:) 学習エポックが足りていないということです。限界では、どこから始めても(+/-10でも)、グリッドは最適にロールするはずで、それは中央の入力データに対して小さな値に近くなるはずです。そこを人為的にずらしているんですね。これは必ずしも良いことではありません。 逆もまた真なりで、グローバルミニマムか、少なくともその近傍が見つからなければ、各ステップでの学習が満足に行えない可能性があるのだ。この問題を少し研究したところ、個人的には自己欺瞞のようなものを感じました。両方のサンプルで誤差が漸近的に発散するように見えるのに、異なる時間間隔で同じ構成のネットワークが全く逆の売買シグナルを出した場合です。数学的な期待値では勝っていても、結局はカジノをやっているという結論になる。そして、これらすべては、それぞれ、最初の重み付け係数のせいで、こういう結論になったのです。これが私の考えです:) これは、グリッドの訓練が不十分であることを示す症状です。学習ベクトルが最適な P=w^2/dより 短くなっていなかったか? 削除済み 2009.06.04 09:14 #423 Neutron >> : これは、トレーニングエポックが足りていないことを意味します。限界では、どこから始めても(+/-10でも)、グリッドは最適に転がるはずで、それは中心の入力データに対して小さな値の近辺にある。そこを人為的にずらしているんですね。これは必ずしも良いことではありません。 はい、最小限にとどめるようにしています。数十万エポック後に最終的に何かを与えてくれるのを待つのは嫌なんです。通常は数千、数万で十分です。 Neutron 2009.06.04 09:18 #424 registred писал(а)>> 通常は数千、数万で十分です。 ビックリ! 数百枚になりました。 削除済み 2009.06.04 09:19 #425 Neutron >> : これは、トレーニングエポックが十分でないことを意味します。限界では、どこから始めても(+/-10でも)、グリッドは最適に転がるはずで、それは中心の入力データに対して小さな値の近辺にある。そこを人為的にずらしているんですね。これは必ずしも良いことではありません。 グリッドの調子が悪いという症状です。学習ベクトルが最適なP=w^2/dより短くなっていなかったか? 正直なところ、このような数式を長い間見ていませんでした。すべて実験によって、少数のニューロンから始めて、2つのサンプルで誤差が漸近的に分離するまで、この作業を続けています。層の重みの最適値を見つけたので、何度かネットワークを再トレーニングすると、同じサンプルでもグリッドごとに異なる結果が得られますが、初期の重みはグリッドごとに異なっています。ネットを一から鍛えなおして、履歴で同じトレードができるかどうか試してみてください。後で教えてくれるのか、気になるところです。 削除済み 2009.06.04 09:19 #426 Neutron >> : ビックリ! 数百個はある。 >>まあ、よく言うよ、便乗して) Neutron 2009.06.04 09:26 #427 registred писал(а)>> ネットワークを一から学習し直して、履歴で同じトレードができるかどうか試してみてください。後で教えてください、興味があります。 もちろん、そんなことはありません。 すべての取引は、その時々で異なるなどしますが、利益は平均して同じ(非常に小さい)です。平均値の再現性に興味がある、計算機資源の節約になる。 削除済み 2009.06.04 09:33 #428 Neutron >> : もちろん、そんなことはありません。 すべての取引は、時間ごとに異なりますが、平均利益は同じです(そして非常に小さい)。平均値の再現性に興味がある。 だから、カジノで遊んでいるようなものだと思うんです。委員会を使うのが一番効果があるかもしれないので、お勧めします。私自身は、このような労働条件には納得していません。新しいデータでネットワークを再トレーニングする余裕はありません。再トレーニング後に再びこの履歴でテストすると、エラーが発生し、採算が合わなくなります。 paralocus 2009.06.04 09:36 #429 ええ、そうですね。初期ランダム化されたグリッドの結果は、どうやら正確に繰り返す必要はないようです。ある程度の狭い範囲で結果が安定していればいいのです。 例えば、こんな感じです。 OPTION 1: 実施例2. 両者とも実施した初期の初期化以外の入力データは同じである。 Neutron 2009.06.04 09:39 #430 その通りだ、同志よ! 1...363738394041424344454647484950...104 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
慎重な人ほどいい人!締め付けの手順が複雑でなく、NSトレーニングが苦にならない--効果的な方法である。
最適な値が得られないというのは、私たちBPのハッタリです。正弦波を予測するのならわかるんですけどね~。- そうですね、最適な値というのはありますね。しかし、マーケット・チョッピーにおけるそれらは何なのでしょうか?今、最適なものがそこにあり、次のステップでは(あなたが予測している)、そこに......。を、全力で「ここ」に探してきたんですね。つまり、厳密な定位問題は存在せず、各ステップで再トレーニングを行うことで満足に解けるのです。
逆もまた真なりで、グローバルミニマム、あるいは少なくともその近傍が見つからなければ、各ステップでの学習は満足に行えないかもしれない。この問題を少し研究したところ、個人的には自己欺瞞のようなものを感じました。両方のサンプルで誤差が漸近的に発散するように見えるのに、異なる時間間隔で同じ構成のネットワークが全く逆の売買シグナルを出した場合です。数学的な期待値では勝っていても、結局はカジノをやっているという結論になった。そして、これらすべては、それぞれ、最初の重み付け係数のせいで、こういう結論になったのです。これが私の考えです:)
ちなみに、私の観測の結果、グリッドの学習が早く進む最適な重みのランダム化は、区間[-0.07; +0.07]であることがわかりました。なぜそうなるのかは分かりませんが:)
学習エポックが足りていないということです。限界では、どこから始めても(+/-10でも)、グリッドは最適にロールするはずで、それは中央の入力データに対して小さな値に近くなるはずです。そこを人為的にずらしているんですね。これは必ずしも良いことではありません。
逆もまた真なりで、グローバルミニマムか、少なくともその近傍が見つからなければ、各ステップでの学習が満足に行えない可能性があるのだ。この問題を少し研究したところ、個人的には自己欺瞞のようなものを感じました。両方のサンプルで誤差が漸近的に発散するように見えるのに、異なる時間間隔で同じ構成のネットワークが全く逆の売買シグナルを出した場合です。数学的な期待値では勝っていても、結局はカジノをやっているという結論になる。そして、これらすべては、それぞれ、最初の重み付け係数のせいで、こういう結論になったのです。これが私の考えです:)
これは、グリッドの訓練が不十分であることを示す症状です。学習ベクトルが最適な P=w^2/dより 短くなっていなかったか?
これは、トレーニングエポックが足りていないことを意味します。限界では、どこから始めても(+/-10でも)、グリッドは最適に転がるはずで、それは中心の入力データに対して小さな値の近辺にある。そこを人為的にずらしているんですね。これは必ずしも良いことではありません。
はい、最小限にとどめるようにしています。数十万エポック後に最終的に何かを与えてくれるのを待つのは嫌なんです。通常は数千、数万で十分です。
通常は数千、数万で十分です。
ビックリ!
数百枚になりました。
これは、トレーニングエポックが十分でないことを意味します。限界では、どこから始めても(+/-10でも)、グリッドは最適に転がるはずで、それは中心の入力データに対して小さな値の近辺にある。そこを人為的にずらしているんですね。これは必ずしも良いことではありません。
グリッドの調子が悪いという症状です。学習ベクトルが最適なP=w^2/dより短くなっていなかったか?
正直なところ、このような数式を長い間見ていませんでした。すべて実験によって、少数のニューロンから始めて、2つのサンプルで誤差が漸近的に分離するまで、この作業を続けています。層の重みの最適値を見つけたので、何度かネットワークを再トレーニングすると、同じサンプルでもグリッドごとに異なる結果が得られますが、初期の重みはグリッドごとに異なっています。ネットを一から鍛えなおして、履歴で同じトレードができるかどうか試してみてください。後で教えてくれるのか、気になるところです。
ビックリ!
数百個はある。
>>まあ、よく言うよ、便乗して)
ネットワークを一から学習し直して、履歴で同じトレードができるかどうか試してみてください。後で教えてください、興味があります。
もちろん、そんなことはありません。
すべての取引は、その時々で異なるなどしますが、利益は平均して同じ(非常に小さい)です。平均値の再現性に興味がある、計算機資源の節約になる。
もちろん、そんなことはありません。
すべての取引は、時間ごとに異なりますが、平均利益は同じです(そして非常に小さい)。平均値の再現性に興味がある。
だから、カジノで遊んでいるようなものだと思うんです。委員会を使うのが一番効果があるかもしれないので、お勧めします。私自身は、このような労働条件には納得していません。新しいデータでネットワークを再トレーニングする余裕はありません。再トレーニング後に再びこの履歴でテストすると、エラーが発生し、採算が合わなくなります。
ええ、そうですね。初期ランダム化されたグリッドの結果は、どうやら正確に繰り返す必要はないようです。ある程度の狭い範囲で結果が安定していればいいのです。
例えば、こんな感じです。
OPTION 1:
実施例2.
両者とも実施した初期の初期化以外の入力データは同じである。
その通りだ、同志よ!