記事についてのディスカッション 新しいコメント MetaQuotes 2020.12.04 07:31 新しい記事「ニューラルネットワークと容易性(後編)。ネットワークのトレーニングとテスト」はパブリッシュされました: 第2回目の今回は、引き続きニューラルネットワークの勉強をし、作成したCNetクラスをEAで使用した例を考えていきます。 学習時間、予測精度ともに同様の結果を示す2つのニューラルネットワークモデルを用いてタスクを行います。 最初のエポックは、初期段階でランダムに選択されたニューラルネットワークの加重に強く依存します。 35エポックのトレーニングを行った後、統計量の差はわずかに増加した - 回帰ニューラルネットワークモデルはより良いパフォーマンスを示しました。 値 回帰ニューラルネットワーク 分類ニューラルネットワーク ルート平均2乗誤差 0.68 0.78 ヒット率 12.68% 11.22% 未認識フラクタル 20.22% 24.65% テストの結果、どちらのニューラルネットワーク組織亜種も、学習時間と予測精度の点で似たような結果が得られることがわかりました。 同時に、得られた結果から、ニューラルネットワークのトレーニングには追加の時間とリソースが必要であることが示されました。 ニューラルネットワークの学習ダイナミクスを解析したい場合は、添付ファイルの各学習エポックのスクリーンショットをご覧ください。 作者: Dmitriy Gizlyk 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
新しい記事「ニューラルネットワークと容易性(後編)。ネットワークのトレーニングとテスト」はパブリッシュされました:
第2回目の今回は、引き続きニューラルネットワークの勉強をし、作成したCNetクラスをEAで使用した例を考えていきます。 学習時間、予測精度ともに同様の結果を示す2つのニューラルネットワークモデルを用いてタスクを行います。
最初のエポックは、初期段階でランダムに選択されたニューラルネットワークの加重に強く依存します。
35エポックのトレーニングを行った後、統計量の差はわずかに増加した - 回帰ニューラルネットワークモデルはより良いパフォーマンスを示しました。
テストの結果、どちらのニューラルネットワーク組織亜種も、学習時間と予測精度の点で似たような結果が得られることがわかりました。 同時に、得られた結果から、ニューラルネットワークのトレーニングには追加の時間とリソースが必要であることが示されました。 ニューラルネットワークの学習ダイナミクスを解析したい場合は、添付ファイルの各学習エポックのスクリーンショットをご覧ください。
作者: Dmitriy Gizlyk