ニューラルネットと入力 - ページ 41 1...3435363738394041 新しいコメント Yury Reshetov 2015.01.23 10:06 #401 nikelodeon: 11列+1列出力のサンプリングを用意しました。質問:Predictorを起動するとき、列の数を指定する必要があります。データ量のみ(11)、または出力(12)と合わせて ?つまり、最初の表計算ソフト(csvファイル)において、列数N>46、行数Mの場合、計算時間コストは、2 * (N - 2) + M - 2に比例することになる。表計算ソフトの列数N < 13の場合、計算に費やす時間は2 * (N - 2)2+ M - 2に比例します。つまり、表計算ソフトの列数がN=12(入力数10)であれば、同じコンピュータでの計算時間はN=1025(入力数1023)の場合と同じになるのである。なぜなら、入力数が11以下の場合、MSUA カーネル変換が有効になるからである。 Mihail Marchukajtes 2015.01.25 19:18 #402 よし、タイミングが合ったぞ。しかし、もうひとつ気づいたことがあります。同じファイルを最適化しても、まったく違う結果になってしまう......。完全にみたいな...。もちろん、時には大きく異なることもあります。ユーリ、これと何の関係があるんだ?この場合、最適化の過程で同じ結果になるはずだと思ったのです。しかし、ここで結果が違うことが判明...。:-( どんな内容なんですか? Yury Reshetov 2015.02.08 15:10 #403 nikelodeon: よし、タイミングを整理したぞ。しかし、ここでもうひとつ気づいたことがあります。1つの同じファイルを最適化すると、まったく違う結果になる......。完全にみたいな...。もちろん、時には大きく異なることもあります。ユーリ、これと何の関係があるんだ?この場合、最適化の過程で同じ結果になるはずだと思ったのです。しかし、ここで結果が違うことが判明...。:-( 何の関係があるんだ?それは、ランダム性に関係しています。一般サンプルは、jPredictionを使用してトレーニングサンプルとコントロールサンプルの2つのサブサンプルに分割されます。jPredictionは、一般的なサンプルを2つに分割する試みを100回行っています。 各試行で、トレーニングサブサンプルに対してモデルが構築される。コントロールサンプルでは、モデルが「お粗末でないか」をチェックします。コントロール(汎化性)について得られた結果を表示しています。しかし、トレーニング能力の結果は、フィッティングであるため、どこにも表示されないので、地獄には必要ない。もし、同じサンプルで、異なる実行をしたときに、最良の一般化可能性の結果が大きく異なる場合、そのサンプルは代表的でないことを意味します - 入力にゴミが多すぎるのです。つまり、予測因子の有意性が低い。つまり、どのサンプルがトレーニングサンプルで、どのサンプルがコントロールサンプルに含まれるかにあまり依存しない。 Дмитрий 2015.02.08 15:30 #404 Reshetov: NSの時系列を予測する 場合、PRNGを使ったサンプルの分割は実用的ではありません - 完全にナンセンスで何も示していません。時系列末尾にコントロールサンプルを置いた人工分割のみ 削除済み 2015.02.08 21:15 #405 こんばんは ...ニューラルネットワークを使ったEAで、例えばmuvingや他のインジケータを使った例はありますか? あるいはmuvingでMTに組み込まれたEAで、さらに簡単にニューラルネットワークを 使った例はありますか? 1...3435363738394041 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
11列+1列出力のサンプリングを用意しました。質問:Predictorを起動するとき、列の数を指定する必要があります。データ量のみ(11)、または出力(12)と合わせて ?
つまり、最初の表計算ソフト(csvファイル)において、列数N>46、行数Mの場合、計算時間コストは、2 * (N - 2) + M - 2に比例することになる。
表計算ソフトの列数N < 13の場合、計算に費やす時間は2 * (N - 2)2+ M - 2に比例します。
つまり、表計算ソフトの列数がN=12(入力数10)であれば、同じコンピュータでの計算時間はN=1025(入力数1023)の場合と同じになるのである。なぜなら、入力数が11以下の場合、MSUA カーネル変換が有効になるからである。
よし、タイミングを整理したぞ。しかし、ここでもうひとつ気づいたことがあります。1つの同じファイルを最適化すると、まったく違う結果になる......。完全にみたいな...。もちろん、時には大きく異なることもあります。ユーリ、これと何の関係があるんだ?この場合、最適化の過程で同じ結果になるはずだと思ったのです。しかし、ここで結果が違うことが判明...。:-( 何の関係があるんだ?
それは、ランダム性に関係しています。一般サンプルは、jPredictionを使用してトレーニングサンプルとコントロールサンプルの2つのサブサンプルに分割されます。jPredictionは、一般的なサンプルを2つに分割する試みを100回行っています。
各試行で、トレーニングサブサンプルに対してモデルが構築される。コントロールサンプルでは、モデルが「お粗末でないか」をチェックします。コントロール(汎化性)について得られた結果を表示しています。しかし、トレーニング能力の結果は、フィッティングであるため、どこにも表示されないので、地獄には必要ない。
もし、同じサンプルで、異なる実行をしたときに、最良の一般化可能性の結果が大きく異なる場合、そのサンプルは代表的でないことを意味します - 入力にゴミが多すぎるのです。つまり、予測因子の有意性が低い。
つまり、どのサンプルがトレーニングサンプルで、どのサンプルがコントロールサンプルに含まれるかにあまり依存しない。
NSの時系列を予測する 場合、PRNGを使ったサンプルの分割は実用的ではありません - 完全にナンセンスで何も示していません。
時系列末尾にコントロールサンプルを置いた人工分割のみ