back propagationにおけるバッチ処理。なぜ著者はバッチを任意の数にしているのか!エポックごとにランダムなデータ量を選んで学習していることがわかる。バッチとは量である!例えば、1000個のアイテムをサンプリングすると、それぞれ100個の値からなる10個のパケットになる。各エポックは異なるパケットですが、常に100個の値があります。私はパケットごとに学習を行い、各パケットの最後に重みを調整します。こうすることで、ローカル・ミニマムで行き詰まらないようにすることができる。また、一部のサンプルデータだけでなく、すべてのサンプルデータを使います。
どのスクリプトから study_data_not_norm.csvを 生成すればよいのでしょうか? create_initial data´sスクリプトを試しましたが、うまくいきませんでした。gpt_test_not_norm.mq5スクリプトを実行すると、範囲外になりました。
管理者の皆様、
このようなユニークな分野で学ぶ機会をいただき、本当にありがとうございます!
エラー5008について、以前の投稿に戻りたいと思います。
、 モデル ファイルが読み込まれません。
同時に、チャート上で実行すると、ロボットは正しく動作し、モデルファイルはダイレクトパス後に適切な値をピックアップし、チャート上に表示され、すべて順調です。
モデルファイルは、本来あるべき、True フラグ forCommon ㊦の ディレクトリにあります。
さらに、ノートパソコンの別のコンピュータで同じことを実行したところ、ストラテジー・テスターはエラーなしで起動した。
ストラテジーテスターが動作しないのは、何らかのシステム設定のせいでしょうか?
1.ストラテジーテスターは以下のコンピュータでは動作しません。
インテル Core i5-9400F 2.90GHz プロセッサー 、16295MB
Windows 10 home.
2.Strategy Testerは以下のノートパソコンで動作します。
Intel Core i7-2760QM 2 .40GHzプロセッサー、12238 MB
Windows 10Pro。
この問題を解決するのを手伝ってください。
ビデオカードが搭載されており、より高速です。
gpt_test_not_norm.mq5スクリプトを実行すると、out of range exitが発生しました。
プログラムの40行目に
if(!loss_history.Resize(0,Epochs))
に変更する:
if(!loss_history.Resize(Epochs)) に変更。
こんにちは。たくさん書いて、本になりました。読み始めて、市場向けに何か書こうと思ったんだ。
いい作品だよ。なぜなら、mql5ツールを使って機械学習にアプローチする方法を説明するような、これほど普遍的なものは他にないからだ。
しかし。
サンプルは、60%のトレーニング、20%の検証、20%のテストの3つの部分に分かれている。各バー・チェーンの40本のバーのうち、35本のバーが繰り返される。モラル - 同じデータを使ってトレーニングと検証を行う。絵を描いてみた。これはこの本だけの問題ではなく、何度も何度も遭遇する。
最初は、ジグザグ・インディケータは繰り返しのない動きを強調するためのものだと思っていました。トップからトラフ、トラフからトラフ、トラフからトップ。これらは、この本で言うところのユニークなパターンだろう。しかし、そうではなく、著者はバーごとにパターンを構築する。ジグザグは必要ない。10小節先を見て、相場がどこに行ったかを計算すればいいのだ。
これが第一のポイントです。そして2つ目のポイントはテクニカルで、これも間違っている。著者は、Tensorflowだけで検証するトレーニングを提供しているのですか?TensorflowはGoogleが作った機械学習ライブラリだ。しかし、この作品の目的は、mql5ツールでそれを行う方法を示すことですよね?
mql5でバリデーションを使った学習の例はない。バリデーションを使った例はまだ見つけていない。よかったら後で書きますよ。もちろん、自分でやってみるべきだ。もちろんだ。履歴を用意したり、学習パラメータを選んだりするのは大変だ。Tensorflowは何でも揃っているように見えるが、やることはたくさんある。そしてここで、技術的な部分が終わっていないことが判明した。
これは、5%がないと価値を失う95%なのだろうか?
良い仕事だという事実で止めておこう。だって、こんなものは他にはないのだから。
アダムの最適化メソッドは、学習率に基づいてlearning_rateを調整しないのですか?
リカレントネットワークを行う場合、なぜ隠れフルリンク層を追加するのですか?フルリンクのテーマはlstmのテーマを破壊する。
ドロップアウトはどのニューラルネットワークでもレイヤーの特性である。例えば、lstmではドロップアウトのプロパティは必須で、そうしないと数エポックにわたるデータに慣れてしまう。pytorchでは、ドロップアウト特性は2つの同じレイヤー間の遷移でしか使えないので、2つのリカレントレイヤーが必要です。そしてtensorflowではどの層でもドロップアウトを持つことができる。pytorchに対するtensorflowの明らかな利点。
back propagationにおけるバッチ処理。なぜ著者はバッチを任意の数にしているのか!エポックごとにランダムなデータ量を選んで学習していることがわかる。バッチとは量である!例えば、1000個のアイテムをサンプリングすると、それぞれ100個の値からなる10個のパケットになる。各エポックは異なるパケットですが、常に100個の値があります。私はパケットごとに学習を行い、各パケットの最後に重みを調整します。こうすることで、ローカル・ミニマムで行き詰まらないようにすることができる。また、一部のサンプルデータだけでなく、すべてのサンプルデータを使います。
トレードの最適化はまだ機能していません。ダイアログウィンドウに奇妙なエラーが表示される。コンピュータの電源が一度切れました。つまり、ネットワークを訓練し、それを使ってトレードを最適化しようとした場合です。
私の意見では、FXにグラフィカルな刺激装置を使うのは間違っている。どう考えても、データが少ない。私の考えでは、オプティマイザーでメタトレーダー・エージェントを使い、異なるネットワークに対して異なるトレーニング・ストリームを実行する方が正しい。例えば、tensorflowでは7つのストリームをトレーニングしている。ひとつが終わると、もうひとつが追加される。そうやって100のバリエーションがある。そしてそれらを履歴上で実行する。
ここで重要なのは、ニューラルネットワークは優れているかもしれないということだ。しかし、すべてのニューラルネットワークがトレーニング履歴をパスできるわけではない。だから、たくさんのバリエーションのネットワークが必要なのだ。
ChatGPTは、この2つを分類する最良の方法はシグモイドを使うことだと提案している。そしてそれはまさに私が見つけられなかったものだ。活性化関数も違う。しかし損失関数は同じ - MSE?
タンジェントはやはり回帰であり、分類ではない。-1対1は確率ではなく、値の計算だ。
要するに、それでいい。それ以外には何もない。だから労働は確かにいい。使ってみよう。
LG 2 10:07:44.216 Core 1 disconnected
KP 0 10:07:44.216 Core 1 接続が切断された。
解決策は見つかりましたか?もし見つかれば、 投稿 します。
ファイル"our_model.net"がない。